Według badań IDC ilość danych rośnie o 46% rocznie, podczas gdy Gartner podaje, że od 2015 r. Wydatki na systemy centrów danych wzrosną średnio o 1, 8 procent w ciągu najbliższych czterech lat. Zsumowanie tych dwóch raportów sugeruje, że CTO i CIO powinni przechowywać więcej danych przy niższych kosztach. W rzeczywistości, jeśli weźmiemy pod uwagę inflację, budżety na przechowywanie danych kurczą się. Sytuację dodatkowo komplikują wymagania obecnego środowiska opartego na danych, w którym oczekujemy natychmiastowego dostępu do informacji na żądanie z różnych lokalizacji w dowolnym momencie. Jest to trudny, ale nie niemożliwy, wariat do zgryzienia, ponieważ wirtualizacja pamięci masowej może zwiększyć przepustowość, obniżyć koszty operacyjne i poprawić skalowalność systemów IT na terabajt przechowywanych danych.
Wirtualizacja pamięci masowej nie jest nową technologią, ale nie jest tak szeroko dostosowana jak wirtualizacja komputerów stacjonarnych lub serwerów (aplikacji). Jest to zaskakujące, ponieważ, zgodnie z badaniami IBM, zwroty z inwestycji w aplikacje i infrastrukturę nie są w pełni realizowane, jeśli pamięć masowa nie jest zwirtualizowana. Zwirtualizowana pamięć masowa zapewnia stabilny, jednolity i niezawodny dostęp do danych, nawet gdy podstawowy sprzęt zmienia się w miarę zwiększania, usuwania lub awarii nośników pamięci. Jest to możliwe, ponieważ wirtualizacja pamięci masowej automatyzuje zarządzanie pamięcią masową, umożliwia rozbudowę i aktualizację zasobów pamięci masowej w locie.
Wirtualizacja działa jako warstwa pośrednia i podstawowy interfejs między serwerami a pamięcią masową. Serwery widzą warstwę wirtualizacji jako pojedyncze urządzenie pamięci, podczas gdy wszystkie pojedyncze urządzenia pamięci widzą warstwę wirtualizacji jako jedyny serwer. Ułatwia to grupowanie systemów pamięci masowej - nawet urządzeń różnych dostawców - w poziomach pamięci masowej.