Centra danych zwirtualizowane i w chmurach

Pamięć to nie tylko pojemność

Trudno oczekiwać, by postęp w dziedzinie pamięci masowych nie oznaczał wzrostu ich pojemności i wydajności. Ale obecnie ważniejsze są zmiany dotyczące wyposażania tego sprzętu w zaawansowane funkcje deduplikacji danych, dynamicznej alokacji pamięci oraz oczywiście wirtualizacji zasobów. I dotyczy to nie tylko pamięci klasy korporacyjnej, lecz także tych przeznaczonych na rynek małych i średnich firm.

Wirtualizacja pamięci masowych ma wiele zalet, z których najważniejszą jest możliwość lepszego wykorzystania zasobów dostępnych w systemie informatycznym. Z reguły zwiększa ona też jego niezawodność i dostępność, pozwalając na względnie szybkie przenoszenie danych między pamięciami wchodzącymi w skład wirtualnej puli, np. w razie awarii jednego z elementów systemu czy konieczności jego modyfikacji.

Najważniejsze trendy na rynku pamięci masowych:

- Technologie wirtualizacyjne stają się standardem.

- Coraz więcej systemów pamięci zapewnia deduplikację danych i dynamiczną alokację pamięci.

- Rośnie oferta systemów integrujących pamięci masowe, serwery, sprzęt sieciowy i oprogramowanie, oferowanych jako prekonfigurowane, łatwe we wdrożeniu urządzenie.

W środowisku zwirtualizowanym można też łatwiej zarządzać migracją danych, przenosząc mniej ważne informacje do wolniejszych i tańszych systemów pamięci masowej. Dane można też łatwiej replikować niż w klasycznym systemie, ponieważ wirtualizacja nie wymaga stosowania rozwiązań nadmiarowych.

Wirtualizacja umożliwia wydłużenie cyklu przydatności macierzy. Bo w zwirtualizowanej sieci SAN można względnie łatwo dodawać nowe systemy pamięci, uzupełniając jej zasoby i nadal wykorzystując stare pamięci - realizować stopniową migrację. Pozwala to na wydłużenie czasu przydatności starych elementów systemu oraz uniknięcie kosztów i ryzyka związanych z rewolucyjną modyfikacją infrastruktury.

Choć wirtualizacja daje wiele korzyści, to niesie też nowe problemy. Oprócz niezbędnej inwestycji w sprzęt nowej generacji, nawet modele pamięci masowej - prekonfigurowane i przystosowane do względnie łatwego wdrożenia - stawiają większe wymagania administratorom systemów, którzy muszą rozszerzyć swoje umiejętności o obsługę systemów zwirtualizowanych.

Natomiast deduplikacja to technologia eliminacji powtarzających się (zduplikowanych) danych. Zdaniem analityków jej zastosowanie w systemach do backupu, pozwala uzyskać realne oszczędności na poziomie 20-50:1, a więc 20-, a nawet 50-krotne zmniejszenie zapotrzebowania na pojemność pamięci masowej niezbędnej do przechowywania kopii zapasowych.

Początkowo deduplikacja była wykorzystywana głównie w korporacyjnych systemach do backupu, ale obecnie zaczyna nabierać znaczenia standardowego mechanizmu, umożliwiającego zwiększenie efektywności systemów pamięci. Technologia ta dobrze sprawdza się jako mechanizm eliminacji powtórzeń w każdym typie plików, np. załącznikach poczty elektronicznej, kopiach dokumentów tekstowych, arkuszy, obrazów graficznych itp.

Metody deduplikacji mogą być różne. Mechanizmy eliminacji powtarzających się danych mogą być instalowane w serwerze będącym źródłem plików dla kopii zapasowej, urządzeniach pamięci masowej, bibliotekach VTL lub mogą być oprogramowaniem niezależnym, lub zintegrowanym z aplikacją do backupu, dedykowanymi urządzeniami typu appliance lub oprogramowaniem dodatkowo instalowanym w macierzach dyskowych. W praktyce każde z tych rozwiązań ma wady i zalety. Zależnie od stosowanej metody różne są wymagania wobec przepustowości sieci, wielkości pamięci buforowej lub niezbędnej mocy przetwarzania.

Rik Ferguson

starszy doradca ds. bezpieczeństwa, Trend Micro

Popularyzacja technologii wirtualizacyjnych w centrach danych oraz komputerach PC daje wiele korzyści, ale stwarza też nowe zagrożenia, które nie pojawiały się w klasycznych środowiskach fizycznych. Wirtualne serwery mogą być uśpione i nieaktywne nawet przez długie okresy. W momencie uruchomienia często okazuje się, że ich konfiguracja, aplikacje i oprogramowanie zabezpieczające nie są zaktualizowane. W efekcie, serwer taki jest podatny na ataki i staje się poważną dziurą w samym sercu sieci korporacyjnej.

A jeśli zabezpieczenia jednego z wirtualnych serwerów zostaną przełamane, to może on zostać użyty do ataku na inne maszyny wirtualne pracujące pod kontrolą tego samego hiperwizora. Szkodliwe kody nie muszą być transmitowane przez zewnętrzną sieć i łatwo omijają istniejące w niej zabezpieczenia. Klasyczne mechanizmy bezpieczeństwa, takie jak system IPS lub filtry treści, nie są w stanie zablokować takiego ataku.

Możliwość uruchomienia wielu serwerów wirtualnych w jednej maszynie fizycznej może też stworzyć kolejny problem. Jeśli działają w nich aplikacje o różnym poziomie zabezpieczeń i kontroli dostępu, to zapewnienie zgodności systemu z polityką bezpieczeństwa i przepisami prawnymi, takimi jak PCI DSS - jest trudne.

W sumie wirtualizacja wymaga zmiany koncepcji systemu zabezpieczeń. Klasyczne modele zabezpieczania dostępu do sieci na jej brzegach i wewnętrznych mechanizmów ochrony przed zagrożeniami przestają być użyteczne. W środowiskach zwirtualizowanych systemy i dane muszą być chronione indywidualnie. Trzeba też mieć pewność, że mechanizmy zabezpieczeń i kontroli dostępu przypisane do określonych serwerów wirtualnych są automatycznie aktualizowane i przenoszone w przypadku ich migracji.

Nie oznacza to, że środowiska zwirtualizowane są z zasady mniej bezpieczne niż infrastruktura klasyczna. W systemach wykorzystujących serwery fizyczne oprogramowanie zabezpieczające musi działać w tym samym środowisku, co szkodliwy kod, i nie można tego ominąć. A ostatnio VMware udostępniła mechanizmy, które umożliwiają producentom oprogramowania zabezpieczającego wprowadzenie funkcji istotnie podnoszących poziom bezpieczeństwa, co sprawia, że staje się on wyższy niż w klasycznych systemach fizycznych. W praktyce oznacza to możliwość logicznej separacji mechanizmów zabezpieczeń od maszyn wirtualnych, które mogą być chronione bez potrzeby instalacji jakichkolwiek programów agenckich.


TOP 200