Dom Sprzęt komputerowy Co to jest gigabit (GB)? - definicja z techopedia

Co to jest gigabit (GB)? - definicja z techopedia

Spisu treści:

Anonim

Definicja - Co oznacza Gigabit (Gb)?

Gigabit (Gb) to jednostka pomiaru danych stosowana do szybkości przesyłania danych cyfrowych (DTR) i prędkości pobierania. Jeden Gb to jeden miliard (1 000 000 000 lub 10 9 ) bitów.

Międzynarodowy System Jednostek (SI) definiuje prefiks giga jako multiplikator 10 9 do przechowywania danych lub miliard (1 000 000 000) bitów. Binarny prefiks giga reprezentuje 1, 073, 741, 824 (1024 3 lub 2 30 ) bitów. Różnica SI i binarna wynosi około 4, 86 ​​procent.

Techopedia wyjaśnia Gigabit (Gb)

Centralne jednostki przetwarzania (CPU) są zbudowane z instrukcjami kontroli danych dla bitów - najmniejszej jednostki pomiaru danych. Bity są namagnesowanymi i spolaryzowanymi cyframi binarnymi, które reprezentują zapisane dane cyfrowe w pamięci o dostępie swobodnym (RAM) lub pamięci tylko do odczytu (ROM). Bit jest mierzony w sekundach i charakteryzuje się wysokimi napięciami 0 (włączone) lub 1 (wyłączone).

Większość sieci stosuje wersję Gb SI podczas pomiaru prędkości modemu, FireWire lub Universal Serial Bus (USB), podczas gdy binarna wersja Gb rzadko odnosi się do prędkości DTR i mierzy pamięć RAM i kabel światłowodowy. Grupy oprogramowania i systemy plików często łączą jednostki binarne i SI Gb zgodnie z wymaganiami.

W 2000 r. Instytut Inżynierów Elektryków i Elektroników (IEEE) włączył formalne zatwierdzenie prefiksów metrycznych Międzynarodowej Komisji Elektrotechnicznej (IEC) (na przykład MB jako milion bajtów i KB jako tysiąc bajtów). Nowo dodane warunki danych obejmują:

  • Kibibajt (KiB) to 1024 bajty.

  • Mebibyte (MiB) jest równy 1 048 576 bajtów.

  • Gibibyte (GiB) jest równy 1 073 741 824 bajtów.
Co to jest gigabit (GB)? - definicja z techopedia