Kierunki rozwoju centrów danych

Nowe kierunki rozwoju pamięci masowych mają znaczenie dla strategicznego planowania systemów korporacyjnych.

Nowe kierunki rozwoju pamięci masowych mają znaczenie dla strategicznego planowania systemów korporacyjnych.

Wśród nich w pierwszej kolejności należy wymienić pięć technologii, które mają istotny wpływ na to, jak obecnie podejmowane decyzje sprawdzą się za parę lat. Należy jednak podkreślić, że znajomość dostępnych rozwiązań nie oznacza, iż najnowsze z nich powinny być z definicji akceptowane i wdrażane, bo dobre planowanie oznacza tylko, że - zarówno pozytywne, jak i negatywne - oceny konkretnych technologii mają uzasadnienie i oparte są na rzeczywistych potrzebach i wymaganiach firmy.

1 Deduplikacja

Mechanizmy deduplikacji, czyli kontrolowanej eliminacji powtarzających się plików lub danych, to bardzo efektywny sposób na zmniejszenie wymagań dotyczących pojemności pamięci masowych i przyspieszenia procesów backupu, a w efekcie również ograniczenia kosztów inwestycji i utrzymania centrów danych. Technologie deduplikacji zaczynają być stosowane nie tylko jako opcjonalne rozwiązanie programowe lub sprzętowe, ale jako standardowe wyposażenie korporacyjnych pamięci masowych, a stopniowo również systemów adresowanych na rynek średnich firm. Za kilka lat trudno będzie wyobrazić sobie nowoczesne centrum danych nie wyposażone w mechanizmy do automatycznej eliminacji powtarzających się, a więc zbędnych kopii plików lub danych.

2 Dyski SSD

Zastosowanie pamięci Flash - dysków SSD (Solid State Drive) - w pamięciach masowych ma przed sobą ogromną przyszłość. Choć SSD nie zastąpią klasycznych, magnetycznych napędów dyskowych lub taśm, to technologia ta może wkrótce przynieść rewolucyjne zmiany w architekturze centrów danych. Odpowiednio zaprojektowane systemy pamięci masowych wyposażone w umożliwią uzyskanie nieosiągalnej obecnie szybkości dostępu, skrócenie czasu odpowiedzi, a jednocześnie pozwolą na istotne zmniejszenie zużycia energii. Pierwszym znanym producentem pamięci masowych, który zdecydował się na opracowanie korporacyjnych systemów wykorzystujących Flash było EMC, ale kolejne firmy, np. Hitachi, już ogłosiły, że idą w tym samym kierunku. Na razie koszty implementacji SSD są jeszcze wysokie, ale można oczekiwać, że będą systematycznie spadały i za kilka lat technologia ta stanie się standardem.

3 10G Ethernetvs Fibre Channel

Fibre Channel - niewątpliwie dominujący standard w zakresie połączeń sieciowych w centrach danych - doczekał się poważnego konkurenta wraz z pojawieniem się i popularyzacją 10-gigabitowego Ethernetu. Po raz pierwszy zniwelował on dotychczasową przewagę FC pod względem przepustowości. Najnowszy standard FC oferuje "tylko" 8 Gb/s. 10G Ethernet kusi użytkowników względnie niską ceną. Nie należy jednak oczekiwać, aby porzucili oni wcześniejsze inwestycje w systemy FC, więc zastosowania Ethernet w centrach danych będą popularyzować się stopniowo i oba standardy jeszcze przez wiele lat będą współistniały, zwłaszcza że pojawiają się już technologie umożliwiające wykorzystanie protokołu FC do transmisji w sieci Ethernet (FCoE).

Ważnym atutem FC jest niezawodność transmisji, ale pod tym względem 10G Ethernet także zaczyna być konkurencyjny, bo na rynku już pojawiły się rozwiązania techniczne umożliwiające zapewnienie bezstratnej transmisji pakietów przy zachowaniu zgodności ze standardowym protokołem Ethernet. Być może w niedalekiej przyszłości nastąpi integracja tych różnych protokołów, tak jak nastąpiło to już w sieciach IP, które zostały przystosowane do transmisji nie tylko danych, ale również wideo i głosu. Na razie jest to jednak tylko potencjalna możliwość i nie wiadomo, czy zostanie zrealizowana w praktyce.

4 Dyski i taśmy

Zarówno w dużych, jak i małych centrach danych problemy związane z procesem tworzenia kopii zapasowych na taśmach są takie same i związane z czasem niezbędnym do utworzenia kopii, niezawodnością nośników oraz czasem odtwarzania. Dlatego też w ostatnich latach systematycznie rośnie popularność rozwiązań typu VTL (Virtual Tape Library), czyli pamięci dyskowych emulujących streamery. Tego typu rozwiązanie umożliwia skrócenie czasu backupu i wykorzystanie kopii zapasowej do szybkiego odtwarzania danych operacyjnych.

Należy zwrócić uwagę, że szybkość zapisu nowej generacji streamerów nie ustępuje pamięciom dyskowym, ale dotyczy to tylko zapisu ciągłego. Oprócz tego taśmy wciąż są podstawowym nośnikiem do archiwizacji danych, zgodnie z wymaganiami nakładanymi przez regulacje prawne. Wszystko wskazuje na to, że streamery będą stopniowo wypierane przez pamięci dyskowe jako systemy do przechowywania bieżących kopii bezpieczeństwa, ale wydaje się, że w dającej się obecnie przewidzieć przyszłości wciąż pozostaną podstawowym elementem systemów do długookresowej archiwizacji danych.

5 Wirtualizacja

Technologie wirtualizacyjne szturmem zdobywają powodując transformację klasycznej infrastruktury IT. Oznacza to postępujący zanik pamięci bezpośrednio podłączanych do serwerów, czyli DAS. Powszechnie są one zastępowane przez systemy NAS lub sieci SAN. Tego typu rozwiązania - w połączeniu z wirtualizacją - umożliwiają budowę skalowalnych i efektywnie wykorzystywanych centrów danych. Należy jednak zdawać sobie sprawę, że w większości wypadków wymaga ona zasadniczej modernizacji infrastruktury IT. Wdrożenie systemów zwirtualizowanych nie jest też tak łatwe, jak mogłoby wynikać z wielu materiałów propagujących tę technologię. Jak wynika z doświadczeń, potencjalne oszczędności wynikające z tego typu inwestycji z reguły są przeceniane. Wszystko wskazuje, że to kierunek, przed którym nie ma odwrotu i warto się do tego zawczasu przygotować.


TOP 200