Spisu treści:
Definicja - Co oznacza kod Hamminga?
Kod Hamminga to liniowy kod wykrywający błędy, który może wykryć do dwóch równoczesnych błędów bitów i może korygować błędy jednobitowe. Niezawodna komunikacja jest zapewniona, jeśli odległość hamowania między nadajnikiem a odbiornikiem jest mniejsza lub równa jeden.
Techopedia wyjaśnia Kod Hamminga
Kod Hamminga został wynaleziony przez Richarda Hamminga w 1950 roku. Metoda ta jest przydatna dla zmiany jednego bitu, co jest bardziej prawdopodobne niż dwie lub więcej zmian bitu.
Prostota kodów Hamminga sprawia, że nadają się one do użycia w pamięci komputera i do korekcji pojedynczego błędu. Używają wariantu wykrywania podwójnego błędu o nazwie SECDED. Kody te mają minimalną odległość hamowania wynoszącą trzy, przy czym kod wykrywa i koryguje pojedyncze błędy, podczas gdy błędy podwójnych bitów są wykrywane tylko wtedy, gdy nie zostanie podjęta korekta. Dodanie dodatkowego bitu parzystości zwiększa minimalną odległość kodu Hamminga do czterech, co pozwala kodowi wykrywać i korygować pojedyncze błędy podczas wykrywania podwójnych błędów.
Hamming początkowo wprowadził kod, który obejmował cztery bity danych w siedem bitów, dodając trzy bity parzystości. Można go łatwo rozszerzyć do ośmio- i czterobitowego kodu, dodając dodatkowy bit parzystości na górze zakodowanego słowa.