Spisu treści:
Definicja - Co oznacza tryb failover?
Przełączanie awaryjne to stała możliwość automatycznego i bezproblemowego przełączania się na wysoce niezawodną kopię zapasową. Może to być obsługiwane w sposób redundantny lub w trybie gotowości w przypadku awarii głównego serwera, aplikacji, systemu lub innego podstawowego komponentu systemu.
Głównym celem przełączania awaryjnego jest wyeliminowanie lub przynajmniej zmniejszenie wpływu na użytkowników w przypadku awarii systemu.
Termin ten jest również znany jako „fallover”.
Techopedia wyjaśnia przełączanie awaryjne
Przełączanie awaryjne dla serwera wykorzystuje kabel pulsu łączący dwa serwery. Tak długo, jak puls lub puls będą kontynuowane między dwoma serwerami, serwer pomocniczy nie będzie inicjował swoich instancji. Jednak każda zmiana pulsu serwera głównego spowoduje, że serwer dodatkowy przejmie pracę serwera głównego i wyśle wiadomość do technika lub centrum danych, które następnie będą odpowiedzialne za przywrócenie serwera głównego do trybu online. Alternatywnie, niektóre systemy po prostu ostrzegają technika lub personel centrum, który następnie ręcznie inicjuje zmianę na serwerze pomocniczym. Nazywa się to automatyczną konfiguracją z ręcznym zatwierdzaniem.
Do 2005 r. Opracowano technologię wykorzystującą sieci pamięci masowej (SAN), umożliwiającą łączność między serwerami i systemami przechowywania danych. Zapewniło to wiele ścieżek, z których każda wykorzystywała wszystkie komponenty między serwerem a systemem. Wiele ścieżek i nadmiarowych komponentów pomaga zapewnić realną ścieżkę w przypadku awarii komponentu powodującej awarię jednej ścieżki i zwiększa wydajność automatycznego przełączania awaryjnego.
Wirtualizacja, która wykorzystuje maszynę wirtualną lub pseudomaszynę z oprogramowaniem hosta do stworzenia symulowanego środowiska komputerowego, pozwoliła na mniejszą zależność trybu failover od sprzętu fizycznego.








