Zaawansowane możliwości macierzy NAS

Kilka lat temu systemy skalowalne wszerz zaczęły przebijać się na rynku rozwiązań SAN, ale z SAN wiąże się pewne ograniczenia, np. w serwerach trzeba montować karty HBA, aby możliwa była komunikacja z macierzami dyskowymi. Dzisiaj nasliniejszy ruch widać w obszarze skalowalnych macierzy NAS, ponieważ udało się rozwiązać problemy związane z tworzeniem oddzielnych przestrzeni dyskowych w przypadku kupna nowych macierzy do serwerowni. Dzisiaj można dodawać nowe macierze NAS do systemu pamięci masowych bez konieczności stosowania specjalistycznego sprzętu i tworzenia dodatkowych przestrzeni dyskowych. Dostępne na rynku rozwiązania istotnie różnią się parametrami, więc trzeba dokładnie zdefiniować wymagania, zanim dokona się wyboru. Przykładowo, niektóre produkty umożliwiają budowę klastra składającego się z kilkudziesięciu węzłów, podczas gdy w innych ten limit wynosi ponad 1000 albo w ogóle nie ma takiego ograniczenia. Praktycznie w każdym przypadku do dyspozycji są interfejsy sieciowe 10 GE, w niektórych można używać również protokołu FC. Poszczególni producenci (m.in. Dell, HP, NetApp, Panasas) przyjęli różne podejście do kwestii skalowania wszerz, które charakteryzują się własnymi zaletami i służą realizacji różnych potrzeb. Obecnie tylko najbardziej zaawansowane NASy umożliwiają skalowanie wszerz, ale jest to funkcja wbudowana w system operacyjny kontrolera, więc jej przeniesie w dół do prostszych macierzy powinno być możliwe.

Wydajność rośnie

Kolejnym kierunkiem, w którym rozwijają się macierze NAS, jest poszukiwanie różnych, zaawansowanych sposobów zwiększania ich wydajności. Obecnie użytkownicy tej klasy urządzeń potrzebujący większej wydajności po prostu kupują większy model lub dodatkowe procesory i karty sieciowe lub budują konfiguracje klastrowe. Jednak mogą być bardziej efektywne metody skracania czasu dostępu czy zwiększania przepustowości.

Zobacz również:

W sieciach SAN pojawiły się interesujące rozwiązania łączące nośniki SSD z dyskami HDD i czasem wykorzystujące deduplikację. W tym przypadku chodzi o to, aby umieszczać najczęściej wykorzystywane dane na najszybszych nośnikach i przenosić dane między tymi dwoma rodzajami nośników. Niektórzy producenci stosują w macierzach NAS pamięć podręczną cache do przechowywania najczęściej używanych danych. Są nawet rozwiązania umożliwiające współdzielenie pamięci podręcznej SSD pomiędzy wieloma urządzeniami NAS.

Szybkie migawki

Zapisanie kopi migawkowej systemu pliku w przeszłości oznaczało konieczność odłączenia systemu plików, aby zachować spójność plików. Obecnie można jednak zapisywać migawki systemów produkcyjnych bez żadnych operacji negatywnie wpływających na pracę systemu plików. Jest to jeden z ważnych czynników przekonujących firmy do zakupu macierzy NAS. Migawki można zapisywać w stosunkowo krótkich odstępach czasu, np. co godzinę. Jeśli przechowuje się ich wystarczająco dużo, w razie potrzeby łatwo można przywrócić starsze wersje plików. Częste zapisywanie migawek wymaga jednak dużejprzestrzeni dyskowej. Interesującym rozwiązaniem są technologie NAS, które umożliwiaja na zmianę (zmniejszanie lub zwiększanie) w locie ilości dostępnej przestrzeni dyskowej poprzez konsolidację dysków, co umożliwia lepsze wykorzystanie dostępnych zasobów i poprawę wydajności.

NAS dobry do wirtualizacji

Przez lata NAS był postrzegany jako system pamięci masowej drugiej kategorii, nie nadający się do obsługi maszyn wirtualnych. Obecnie macierze NAS zdążyły już potwierdzić w praktyce, że NFS jest protokołem, który nadaje się do używaniaw środowisku wirtualnym. Nie brakuje nawet głosów, że jest to obecnie najlepsza opcja. Producenci myślą podobnie i rośnie liczba zaawansowanych modeli NAS. Branża oczekuje również od dostawców platform wirtualizacyjnych większego wsparcia dla NFS. Opracowanie przez VMware takich narzędzi, jak View Composer for Array Integration (VCAI), które obsługują tylko NFS, potwierdza, że ten protokół ma istotne przewagi nad zapisem blokowym. Szczególnie jeśli chodzi o szybkość wdrożenia i obciążenie pamięci masowej, na której są przechowywane maszyny wirtualne.

Przykładowo, zarządzanie środowiskiem wirtualnym z NFS jest znacznie prostsze niż zarządzanie porównywalnym systemem blokowej pamięci masowej. Co więcej, dobra macierz NAS może wykonywać takie operacje, jak migawki, replikację czy kontrolować parametry QoS dla konkretnych maszyn wirtualnych, zamiast dla woluminów. Jest to możliwe, ponieważ macierz „wie”, które bloki danych są przypisane do poszczególnych maszyn wirtualnych.

Poza tym NFS nie stwarza takich problemów związanych z zapisem blokowym. Przestrzeń dyskową w systemie NFS może współdzielić znacznie więcej maszyn wirtualnych niż w przypadku zapisu blokowego, bez negatywnego wydłużenia czasu opóźnień, wynikającego z rezerwacji SCSI (mimo znacznego ulepszenia w VAAI) czy konfliktów wynikających z ograniczeń długości kolejki SCSI (jest to problem, który jeszcze nie został rozwiązany w VAAI).

Skutkiem tych ograniczeń jest przechowywanie w jednym, blokowym magazynie danych (datastore) archaicznej już liczby maksymalnie 25 maszyn wirtualnych w przypadku aplikacji nie wykonujących dużej liczby operacji wejścia/wyjścia. Rekomendowana, maksymalna liczba maszyn wirtualnych uruchamianych w jednym magazynie danych z VAAI wynosi 140, a dla protokołu NFS ponad 200. Jest to efekt znacznych udoskonaleń protokołu NFS w ostatnich 10 latach. Dostrzega to również VMware i firma powinna rozwijać swoje rozwiązania pod katem NFS. To z kolei przełoży się na większe zainteresowanie macierzami NAS.

vSphere od wersji 6.0 obsługuje najnowszy NFS 4.1,który ma znacznie bardziej zaawansowane mechanizmy bezpieczeństwa oraz szereg udoskonaleń w zakresie komunikacji sieciowej i kontroli dostępu do danych:

  • uwierzytelanianie z wykorzystaniem protokołu Kerberos,
  • wielościożkowość NFS,
  • lepsze przywracania po wystąpieniu błędów.

Natomiast opcjonalne rozszerzenie pNFS umożliwia osiągnięcie wydajności i korzystanie z mechanizmu multipathing znanych z sieci SAN mających centralnie zarządzany system plików.

Lepsze wsparcie dla NFS i VSAN umożliwia zbudowanie solidnej warstwy pamięci masowych do obsługi środowisk wirtualnych, bez konieczności oczekiwania od producentów macierzy implementacji w ich produktach obsługi vVOL. Tym bardziej, że ten mechanizm zdaniem ekspertów służy jedynie rozwiązaniu wyzwań związanych z zapisem blokowym i VMFS, które to wyzwania rozwiązano już w NFS 3.0. Wersja NFS 4.1 umożliwia uzyskanie jeszcze lepszych rezultatów.

Kilku producentów macierzy już idzie w kierunku protokołu NFS 4.1, co umożliwia im stworzenie lepszych i bardziej efektywnych rozwiązań macierzowych do obsługi środowisk wirtualnych. Z pewnością jest to coś, czego użytkownicy oczekują. Jednymi z bardziej pożądanych funkcji są migawki i repliki tworzone per wirtualna maszyn.

Przyszłość twardych dysków

Pierwsze dyski twarde powstały ponad 60 lat temu. Choć coraz trudniej przychodzi zwiększanie ich pojemności, dużo wskazuje na to, że będą nam służyć jeszcze przez wiele lat. Wciąż bowiem trwają prace nad nowymi technologiami zwiększania gęstości zapisu. Jedną z bardziej obiecujących jest HAMR (Heat-Assisted Magnetic Recording). Jest to proces zapisu danych wykorzystujący laser do podgrzewania małych punktów na bardzo stabilnym, magnetycznym nośniku. Podgrzewanie powoduje, że zmieniają się właściwości nośnika magnetycznego i można zapisać na nim dane ze znacznie większą gęstością. Ocenia się, że potencjalnie nawet ze 100 razy większą niż obecne metody zapisu na nośnikach magnetycznych. Prace nad tą technologią są już bardzo zaawansowane i w 2016 r. pierwsze dyski z HAMR powinny trafić na rynek. Pod koniec 2014 r. niektórzy producenci zaprezentowali już działające prototypy. Jedak analitycy z IDC są sceptyczni i uważają, że ta technologia jest bardzo skomplikowana, a jej rynkowa premiera nastąpi najwcześniej w 2017 r. Koszty korzystania z tych dysków mają być porównywalne z napędami bez HAMR, ponieważ laser zużywa bardzo mało energii (około1% całej energii konsumowanej przez HDD).


TOP 200