Dom Wirtualizacja Jak wirtualizacja zwiększa wydajność

Jak wirtualizacja zwiększa wydajność

Spisu treści:

Anonim

Wraz ze wzrostem kosztów energii i spadkiem powierzchni biurowej rozwiązania energooszczędne i zajmujące niewiele miejsca mają absolutną przewagę. Z punktu widzenia czystej ekonomii wdrożenie całkowitej migracji do zwirtualizowanego środowiska wydaje się nieco zbędne. Ogólnie jednak wirtualizacja spotkała się z entuzjazmem w branży IT. Wciąż jest kilka zmarszczek, ale to nieograniczony potencjał sprawia, że ​​ludzie są naprawdę podekscytowani. Tutaj przyjrzymy się zaletom i wadom i pozwolimy ci podjąć decyzję.

Trochę historii o wirtualizacji

Według oficjalnej strony internetowej VMware praktyka wirtualizacji rozpoczęła się w latach 60. XX wieku, kiedy IBM próbował lepiej podzielić komputery mainframe na partycje, aby zwiększyć wykorzystanie procesora. Rezultatem końcowym była mainframe, która mogła jednocześnie wykonywać wiele operacji. Wraz z nadejściem lat 80. i 90. architektura x86 stała się architekturą z wyboru, ponieważ przetwarzanie rozproszone zaczęło naprawdę działać w branży IT. Rozpowszechnienie architektury x86 skutecznie spowodowało masowy exodus z wirtualizacji, ponieważ model serwer-klient rozpoczął gwałtowny wzrost popularności.


W 1998 r. VMware zostało założone przez grupę naukowców z University of California Berkley, którzy próbowali rozwiązać niektóre z braków architektury x86. Wśród tych braków była koncepcja znana jako niewystarczające wykorzystanie procesora. W wielu implementacjach architektury x86 zużycie procesora wynosi średnio od 10 do 15 procent całkowitej pojemności. Jednym z głównych powodów tego jest praktyka uruchamiania jednego serwera na procesor w celu zwiększenia wydajności każdego pojedynczego serwera. Zwiększyło to wydajność, ale kosztem wydajności sprzętu.

Zalety wirtualizacji

Nie ma wątpliwości, że wirtualizacja stała się bardzo popularna w branży IT, ale dlaczego? Niektóre z bardziej oczywistych przyczyn obejmują zwiększone wykorzystanie procesora, większe wykorzystanie miejsca i zdolność do standaryzacji kompilacji serwerów. Jeśli chodzi o wykorzystanie procesora, więcej serwerów na jednej maszynie fizycznej zwykle przekłada się na więcej pracy wykonywanej przez procesor. Zamiast odbierać cały ruch internetowy na jednym komputerze, cały ruch SMTP na innym komputerze i cały ruch FTP na innym, możliwe jest odbieranie całego wspomnianego ruchu na jednej maszynie fizycznej, zwiększając w ten sposób wykorzystanie procesora. Powodzenie tego wymaga jednak pewnej dyskrecji przy umieszczaniu wielu maszyn wirtualnych na jednej maszynie hosta, ponieważ ten scenariusz może potencjalnie obniżyć wydajność.


Wykorzystanie procesora zapewniane przez wirtualizację pośrednio wpływa na wykorzystanie przestrzeni. Pamiętając o powyższym scenariuszu, w którym na jednym komputerze fizycznym umieszczonych jest wiele serwerów, oczywiste jest, że dzięki wirtualizacji potrzeba mniejszej liczby urządzeń fizycznych, w wyniku czego zużywane jest mniej miejsca.


Wreszcie, wirtualizacja dość łatwo nadaje się do pojęć klonowania, zjawy, migawek i innych dostępnych obecnie rodzajów oprogramowania do replikacji. Wartość w tym wywodzi się ze swobody, jaką zapewnia administratorowi systemu do tworzenia obrazów dowolnego systemu operacyjnego w sieci. Tworzenie niestandardowych obrazów umożliwia administratorowi systemu utworzenie domyślnej kompilacji, którą można replikować w całej sieci. Oszczędność czasu podczas konfigurowania dodatkowych serwerów jest nieoceniona. (Aby dowiedzieć się więcej, zapoznaj się z tematem Wirtualizacja serwerów: 5 najlepszych praktyk).

Wady wirtualizacji

Większość stwierdzonych wad wirtualizacji dotyczy przede wszystkim bezpieczeństwa. Pierwsza i być może najważniejsza wada dotyczy koncepcji pojedynczego punktu awarii. Mówiąc prosto: jeśli serwer sieciowy organizacji, serwer SMTP i jakikolwiek inny serwer znajdują się na tym samym komputerze fizycznym, przedsiębiorczy młody haker musi jedynie przeprowadzić atak typu „odmowa usługi” na tym komputerze, aby wyłączyć wiele serwerów w obrębie infrastruktura serwerowa sieci. Zamykanie serwera WWW organizacji może być samo w sobie niszczycielskie, ale usunięcie kilku serwerów może mieć katastrofalne skutki.


Po drugie, powszechną praktyką bezpieczeństwa jest umieszczanie systemu wykrywania włamań (IDS) na wielu interfejsach sieciowych w danej sieci. Prawidłowo skonfigurowany system IDS może być przydatnym narzędziem do badania trendów, heurystyki i innych podobnych działań w sieci. Staje się to jednak prawie niemożliwe w środowisku zwirtualizowanym, w którym na jednym komputerze hosta znajduje się wiele systemów operacyjnych ze względu na fakt, że systemy wykrywania włamań są w stanie monitorować tylko fizyczne interfejsy sieciowe. Innymi słowy, IDS działa jak urok podczas monitorowania ruchu wejściowego i wyjściowego na fizycznym interfejsie sieci, ale gdy ruch przemieszcza się między serwerami wirtualnymi, IDS słyszy tylko świerszcze w lesie. (W celu zapoznania się z treścią przeczytaj The Dark Side of the Cloud.)

Must for IT

Wysiłek większości firm, aby utrzymać się na powierzchni technologicznej, zrodził nienasycone pragnienie większej wydajności i wydajności. Biorąc pod uwagę potrzebę zrobienia więcej za mniej, nie powinno dziwić, że wirtualizacja szybko stała się podstawowym elementem administracji systemem. Dopóki nowa innowacja w architekturze CPU nie podbije świata IT, wirtualizacja będzie nadal uważana za absolutną konieczność w każdej renomowanej sieci IT.

Jak wirtualizacja zwiększa wydajność