Spisu treści:
Definicja - Co oznacza megabajt (MB)?
Megabajt (MB) to jednostka miary danych stosowana do cyfrowego komputera lub pamięci masowej. Jeden MB to milion (106 lub 1 000 000) bajtów. Międzynarodowy System Jednostek (SI) definiuje mega przedrostek jako 10-krotny multiplikator lub milion (1 000 000) bitów. Binarny mega prefiks to 1 048 576 bitów lub 1 024 Kb. Różnica SI i binarna wynosi około 4, 86 procent.
Techopedia wyjaśnia Megabyte (MB)
Centralne jednostki przetwarzania (CPU) są zbudowane z instrukcjami kontroli danych dla bitów będących najmniejszymi jednostkami pomiaru danych. Trochę, najmniejsza jednostka pomiaru danych, jest namagnesowaną i spolaryzowaną cyfrą binarną, która reprezentuje zapisane dane cyfrowe w pamięci o dostępie swobodnym (RAM) lub pamięci tylko do odczytu (ROM). Bit jest mierzony w sekundach i charakteryzowany przez wartości logiczne 0 (wyłączone) lub 1 (włączone). Osiem bitów to jeden bajt. Bajty mierzą prędkość komunikacji urządzenia w tysiącach bajtów na sekundę.
Megabajty nadal dotyczą szeregu kontekstów pomiarowych, w tym cyfrowo obsługiwanych danych komputera i multimediów, pamięci i oprogramowania zgodnie z formatem pliku, a także możliwości kompresji i napędu. MB mierzy format tekstu, obrazy bitmapowe, pliki wideo / multimedialne lub skompresowane / nieskompresowane audio. Na przykład 1 024 000 bajtów (1 000 × 1 024) często reprezentuje sformatowane możliwości 3, 5-calowej dyskietki z dyskiem twardym o pojemności 1, 44 MB (14744560 bajtów). Pliki internetowe są często mierzone w MB. Na przykład połączenie sieciowe z szybkością DTR ośmiu MB / s musi osiągnąć internetowy współczynnik DTR wynoszący jeden megabajt (MB) na sekundę (MB / s).
W 2000 r. Instytut Inżynierów Elektryków i Elektroników (IEEE) włączył formalne zatwierdzenie prefiksów metrycznych Międzynarodowej Komisji Elektrotechnicznej (IEC) (na przykład MB jako milion bajtów i KB jako tysiąc bajtów).
