Spisu treści:
Definicja - Co oznacza Bajt?
Bajt to jednostka pamięci, która może reprezentować pojedynczy znak, taki jak litera, cyfra lub symbol. Technicznie rzecz biorąc, bajt jest sekwencją bitów binarnych w serializowanym strumieniu danych w systemach transmisji danych. W większości komputerów jeden bajt jest równy ośmiu mniejszym jednostkom zwanym bitami, chociaż rozmiar bajtu zawsze zależał od sprzętu.
Jak określono w IEC80000-13 i IEEE 1541, symbolem bajtu jest wielka litera „B”.
Techopedia wyjaśnia Byte
Bajt może przechowywać ciąg, który jest potrzebny w przetwarzaniu większej aplikacji. W przypadku dużej ilości pamięci do bajtów dodawane są prefiksy. Na przykład:
- Kilobajt = 1024 bajty
- Megabajt = 1048576 bajtów
- Gigabajt = 1073741824 bajtów.
Większość aplikacji komputerowych porównuje rozmiar i szybkość przesyłania w większych wielokrotnościach bajtów, takich jak kilobajty i megabajty.
Niektóre języki programowania również wykorzystują bajty jako typ danych. Na przykład C i C ++ wykorzystują bajty jako typ danych i definiują bajty jako adresowalną jednostkę do przechowywania danych, która może przechowywać pojedynczy znak.
