Reportaż o stanie pamięci

Branża rozwiązań do zarządzania danymi jest na fali wznoszącej. Nowym produktom towarzyszą nowe koncepcje i architektury systemów pamięci masowych.

Branża rozwiązań do zarządzania danymi jest na fali wznoszącej. Nowym produktom towarzyszą nowe koncepcje i architektury systemów pamięci masowych.

Jak zwykle jesienią w dziedzinie systemów pamięci masowych sporo się dzieje i dotyczy to w równej mierze systemów do składowania danych, sieci SAN, jak również oprogramowania zarządzającego. Wyścig o "więcej, szybciej i taniej" ani na chwilę nie ustaje, co widać także na przykładzie ostatnich przejęć - w związku z prezentami legislacyjnymi w rodzaju amerykańskiej ustawy Sarbanes-Oaxley branża nie może narzekać na koniunkturę. Najwyraźniej jednak apetyt rośnie w miarę jedzenia - dostawcy wciąż usilnie szukają nowej "wielkiej myśli przewodniej". Myśli, która poruszyłaby wyobraźnię klientów i np. skłoniła ich do szybszej wymiany kupionych niegdyś systemów na nowe.

Więcej i szybciej

Architektura File Area Network TO uporządkowanie relacji między NAS i SAN.

Architektura File Area Network TO uporządkowanie relacji między NAS i SAN.

Zacznijmy od newsów typu "jeszcze więcej". IBM poinformował, że zwiększył pojemność taśm magnetycznych z serii System Storage z 500 GB do 700 GB (model 3599). Według producenta nowe taśmy, które trafią na ynek w styczniu 2007 r., nadają się zarówno do zastosowań archiwizacyjnych (w tym WORM), jak i do tworzenia bieżących kopii bezpieczeństwa. Orientacyjna cena nośnika to nieco ponad 250 USD.

Równolegle nie ustają próby dokonania skutecznego zamachu na taśmę jako podstawowy nośnik do archiwizacji. Hitachi-Maxell wprowadza właśnie na rynek płyty holograficzne o pojemności 300 GB i szybkości zapisu/odczytu 20 MB/s. Technologię tych płyt opracowała firma InPhase wydzielona z Bell Laboratories. W 2008 r. na rynek trafić mają holograficzne dyski optyczne płyty o pojemności 800 GB i szybkości odczytu 80 MB/s. Wydaje się, że to właśnie szybkość odczytu w połączeniu z krótkim czasem dostępu będzie ich główną zaletą. Czy jednak zdetronizują one taśmy?

W związku z miniaturyzacją głowic do zapisu/odczytu danych nie można mieć w tej kwestii żadnej pewności. Śmierć taśmy wieszczono już wiele razy, a tymczasem ma się ona świetnie. Taśmy w standardzie LTO3 mają pojemność 400 GB, zaś nośniki LTO4, które pojawią się w 2008, będą mieć pojemność 800 GB bez kompresji i wysoką szybkość zapisu/odczytu (ponad 100 MB/s). Jedno jest pewne: taśma łatwo się nie podda. W sieciach też ma być więcej, a na pewno szybciej. W IEEE odbyło się głosowanie nad tym, jak szybki ma być następny standard Ethernet. Po długich dyskusjach stanęło na setce, choć była mowa o prędkościach 120 i 160 Gb/s. Prędkości 40 i 80 Gb/s nie uzyskały w końcu dostatecznego poparcia - prawdopodobnie dlatego, że nowy standard będzie powstawać dostatecznie długo, by potrzeby wzrosły. Łącza 100 Gb/s będą użyteczne na potrzeby iSCSI oraz RDMA. 40 Gb/s to za mało, by za kilka lat konkurować z InfiniBand w centrach danych. InfiniBand już dziś oferuje 20 Gb/s przy bardzo małych opóźnieniach oraz możliwość łatwego podniesienia prędkości do 40 Gb/s. Z punktu widzenia telekomunikacji 40 Gb/s to nic nowego - operatorzy od kilku lat korzystają ze sprzętu z łączami Sonet OC-768 i za kolejne kilka chcieliby mieć możliwość migracji do czegoś znacznie szybszego. Nie bez znaczenia było także to, że dostawcy mają już prototypy sprzętu 100 Gb/s.

NAS chce się skalować

Sporo dzieje się w dziedzinie rozwiązań NAS. Liderami tego rynku w skali światowej pozostają: Network Appliance i EMC. Obie firmy mają atrakcyjne portfolio produktów i wciąż rozwijają nowe. NetApp wprowadził ostatnio na rynek skalowalną platformę FAS6000 wykorzystującą nowy, rozproszony system plików mogący objąć do 2048 dysków fizycznych. Również niedawno EMC wprowadziło do swojej oferty nowe, wydajniejsze bramki NAS Celerra NS40 i Celerra NS80, przeznaczone do współpracy z macierzami Clariion i Symmetrix DMX.

Pretendentów do tortu jest jednak więcej. Jedną z firm, która od dawna próbuje wykroić dla siebie większy kawałek tego rynku, jest Hitachi Data Systems - niestety, jak dotąd mało skutecznie. Do niedawna HDS oferował serwery NAS NetApp na zasadach OEM. Obecnie firma oferuje już własne karty NAS do wszystkich modeli swoich macierzy, a mimo to HDS wciąż nie odniósł na tym rynku znaczącego sukcesu.

Od kilku tygodni na rynku krążą informacje, że HDS znów zamierza wejść w układ partnerski. Tym razem ma to ponoć być firma BlueArc, producent systemów NAS z akceleracją sprzętową. Jeśli te niepotwierdzone informacje okażą się prawdziwe, Hitachi zyska bardzo wydajne i skalowalne urządzenia preferowane przez najbardziej wymagających klientów z rynku produkcji filmowej oraz duże korporacje. To jednak oznacza, że HDS zrezygnuje z własnych, dopiero co wprowadzonych platform NAS.

Wokół architektur NAS w ogóle robi się ciekawie, a to za sprawą koncepcji FAN - File Area Network ogłoszonej latem br. przez Brada O'Neilla z firmy analitycznej The Taneja Group. Mniejsza zresztą o nazwę - ważniejsze są postulaty, które kryją się za kolejnym trzyliterowym skrótem.

Najkrócej rzecz ujmując, FAN to koncepcja uporządkowanej architektury sieci SAN, w których logika - kontrola dostępu, zarządzanie zasobami, synchronizacja, usuwanie duplikatów, zarządzanie przestrzenią nazw, indeksowanie i wyszukiwanie treści, szyfrowanie danych itp. - są odseparowane od zarządzania przechowywaniem i zabezpieczaniem plików.

Architekturę FAN da się zbudować za pomocą istniejących już teraz rozwiązań, takich jak oprogramowanie wirtualizacyjne działające na przełącznikach czy Cisco, albo w ramach usług DFS systemu Windows Storage Server, co jednak nie znaczy, że będzie to rozwiązanie optymalne. Jednak użytkownicy nie zrezygnują natychmiast z już wdrożonych architektur, nawet jeśli nowa koncepcja jest co do zasady słuszna.

Nowa klasa rozwiązań będzie wymagać w pierwszym rzędzie dostosowań po stronie dostawców, w tym agregacji kilku klas rozwiązań wewnątrz bramek NAS, co będzie wymagać częściowej konsolidacji dostawców. Architektura FAN może stać się strategiczna dla firm nie dlatego, że dostęp do plików jest w jakiś sposób lepszy niż dostęp blokowy w sieci SAN, lecz dlatego, że FAN zwiększy rzeczywistą kontrolę nad dostępem do informacji i uprości zarządzanie nią przez kontekstowe połączenie ze sobą różnych usług, które dotychczas działały rozdzielnie.

Porządek pod spodem

Koncepcja FAN upowszechni się nie ze względu na wykrycie jakiejś nowej prawdy, lecz dlatego, że wskazuje zdroworozsądkowe podejście do podziału warstw infrastruktury. To jednak nie oznacza, że innowacje w innych dziedzinach zarządzania informacją i danymi będą mniej ważne. Do poprawnego działania koncepcja FAN będzie wymagać wydajnej i skalowalnej infrastruktury niższego rzędu, w tym zwłaszcza systemów plików, menedżerów wolumenów, kontrolerów macierzowych itd.

Ani chybi przyszłość systemów do składowania danych, o czym już nieraz pisaliśmy, jest w architekturach rozproszonych. Nawet jeśli zgodnie z ideą FAN funkcjonalność kontrolno-sterująca dla warstwy plikowej i informacyjnej zostanie zagregowana w ramach nowej klasy kontrolerów NAS, na pewno nie będzie to jeden czy dwa kontrolery, lecz większa ich liczba. Cały wysiłek idzie bowiem w tym kierunku, by móc skalować poszczególne warstwy niezależnie od siebie.

W tym kontekście ciekawostką jest to, co robi niewielka amerykańska firma Panasas, specjalizująca się w rozproszonych systemach plików. Na bazie obiektowego systemu plików Lustre (rozwijanego na zasadach open source przez firmę Lustre File Systems) Panasas stworzył własne rozwiązanie, które zostało już wdrożone w kilkudziesięciu firmach. Najbardziej prominentnym z jej klientów są laboratoria w Los Alamos wykorzystujące tysiące komputerów m.in. do symulacji nuklearnych.

Wykorzystanie Lustre jest o tyle istotne, że jest to system rzeczywiście rozproszony, a jednocześnie naprawdę równoległy. Pierwsza różnica między Lustre a większością klastrowych systemów plików to wydajność, wynikająca z tego, że operacje na danych są niezależne od operacji na metadanych. Lustre nie wykorzystuje synchronizacji metadanych między węzłami w czasie zapisu, lecz czyni to asynchronicznie w stosunku do serwerów metadanych działających niezależnie od węzłów z danymi.

Drugi ważny wyróżnik Lustre to skalowalność wynikająca z hierarchicznego modelu sterowników. W Lustre istnieją obiektowe sterowniki logiczne (w sumie można by je określać jako wirtualne), które komunikują się ze sterownikami bezpośrednimi (sprzętowymi) lub też z innymi sterownikami obiektowymi. Sterowniki logiczne mogą realizować równoległy zapis, komunikując się z wieloma logicznymi sterownikami inicjującymi (initiator) i wieloma sterownikami docelowymi (target). Więcej informacji na temat Lustre można znaleźć na stroniehttp://www.lustre.org/ .

Zarządzanie w warstwie czołowej

Również inni dostawcy pracują nad rozproszonymi systemami plików. System plików Lustre jest wspierany przez HP, która współpracuje w dziedzinie systemów plików także z firmą PolyServe. NetApp ze swoim systemem operacyjnym Data OnTap GX wpisuje się w ten trend. IBM rozwija swój system plików GPFS, zarówno samodzielnie, jak i we współpracy ze środowiskiem open source.

Sun opublikował w końcu ZFS dla Solaria 10, który jest de facto uniwersalną przestrzenią nazw i menedżerem wolumenów dla wielu systemów plików. Nie ustają też wysiłki mniejszych firm, by wybić się w tej dziedzinie. Przykładem może być firma SiCortex, która, podobnie jak Panasas, swoje rozwiązania opiera na systemie plików Lustre.

Firmy dostrzegają także konieczność implementacji rozwiązań przynajmniej częściowo i tymczasowo zmniejszających ograniczoną skalowalność już wdrożonych systemów NAS. Bez względu na to, jak długo trwać będzie wprowadzanie w życie koncepcji FAN, na co dzień firmy muszą ten problem rozwiązać, ponieważ objętość plików w wielu amerykańskich firmach rośnie w zastraszającym tempie.

W tym kontekście interesująco wygląda rozwiązanie firmy Attune, która rozwija oprogramowanie do zarządzania wieloma systemami NAS. To podejście jest o tyle lepsze od wirtualizacji zasobów sieci SAN na przełącznikach Fibre Channel (które stoją "za" serwerami NAS), że rozładowuje tłok i upraszcza zarządzanie w warstwie dostępowej. To właśnie z takich rozwiązań będą się składać architektury FAN.

W poszukiwaniu efektywności

Gorąco wciąż jest na froncie rozwiązań CDP, czyli ciągłego zabezpieczania i odtwarzania danych. Alianse zmieniają się z kwartału na kwartał. Wielcy dostawcy, jak zwykle, skorzystali z możliwości wsparcia się produktami mniejszych firm, zaś po pewnym czasie zaoferowali klientom własne. Tak było w przypadku EMC, która przez pewien czas korzystała z oprogramowania CDP firmy Mendocino Software, by ostatnio zastąpić je własnym, zbudowanym na kanwie przejętej firmy Kashya.

HP, jak na razie, współpracuje z Mendocino. Jak długo - zobaczymy. Ta firma, podobnie jak LeftHand, ma zabezpieczoną przyszłość, ale nic nie jest wieczne. W dziedzinie CDP z pewnością będzie jeszcze można zawrzeć niejeden zyskowny alians, np. z Symantekiem lub Microsoftem, wyłaniającym się jako gracz na tym rynku.

W związku z dużym przyrostem danych plikowych, szybko rozwija się rynek rozwiązań usuwających lub niedopuszczających do powstawania duplikatów plików. Cała masa rozwiązań tego rodzaju powstała z potrzeby poprawienia skalowalności baz pocztowych Microsoft Exchange i Lotus Domino, ale i w systemach plików przechowujących wiele wersji tych samych dokumentów robi się ostatnio niebezpiecznie ciasno.