Spisu treści:
Terminologia związana ze zrozumieniem najbardziej podstawowych pojęć w technologii komputerowej może być prawdziwym przełomem dla wielu technologicznych neofitów. Obszarem, który często tripuje ludzi są te terminy, które są używane do pomiaru danych komputerowych. Tak, mówimy o bitach, bajtach i wszystkich ich wielokrotnościach. Jest to ważna koncepcja dla każdego, kto dogłębnie pracuje z komputerem, ponieważ pomiary te służą do opisania pamięci, mocy obliczeniowej i szybkości przesyłania danych.
Oto proste wyjaśnienie, co oznaczają te pomiary.
Co jest trochę
Wszelkie podstawowe wyjaśnienia dotyczące informatyki lub telekomunikacji muszą zaczynać się od cyfry binarnej lub binarnej. Jest to najmniejsza ilość danych cyfrowych, które można przesłać przez połączenie sieciowe. Jest to najmniejszy element każdego otrzymanego e-maila i wiadomości tekstowej. Bit jest pojedynczą jednostką informacji cyfrowej i reprezentuje zero lub jeden. Wykorzystanie bitów do kodowania danych sięga dawnych systemów kart dziurkowanych, które umożliwiały pierwszym komputerom mechanicznym wykonywanie obliczeń. Informacje binarne, które kiedyś były przechowywane w mechanicznej pozycji dźwigni lub przekładni komputerowej, są teraz reprezentowane przez impuls napięcia elektrycznego lub prądu. Witamy w erze cyfrowej! (Dowiedz się więcej o dawnych czasach w The Pioneers of Computer Programming.)