Sieci pamięci masowych (VI): Sieci SAN obecnie a LAN 20 lat temu

Sieci SAN robią w świecie pamięci masowych zawrotną karierę. Technologia ta ma wiele niezaprzeczalnych zalet, takich jak wysoka dostępność i możliwość stosowania scentralizowanych mechanizmów zarządzających olbrzymią ilością danych.

Sieci SAN robią w świecie pamięci masowych zawrotną karierę. Technologia ta ma wiele niezaprzeczalnych zalet, takich jak wysoka dostępność i możliwość stosowania scentralizowanych mechanizmów zarządzających olbrzymią ilością danych.

Sieci SAN spełniają wiele oczekiwań wyrażanych od lat przez coraz bardziej wymagających użytkowników i przez administratorów sprawujących pieczę nad olbrzymią ilością danych, które już wkrótce będziemy liczyć w terabajtach. Nie ma się czemu dziwić: pamięci SAN wykorzystują najbardziej zaawansowane technologie sieciowe i łączą doskonale dwa światy - świat pamięci masowych ze światem sieci komputerowych.

Wielu producentów sprzętu sieciowego dostrzegło już swoją szansę w technologii SAN i oferuje szereg rozwiązań. Są to zupełnie nowe produkty lub znane już urządzenia, które zostały zmodyfikowane i obsługują w nowej wersji sieci SAN.

Czy nowa technologia jest już na tyle dojrzała, że można ją bez większych obaw wprowadzić do swojego systemu informatycznego? A co ze współoperatywnością sprzętu oferowanego przez różne firmy? Jak zarządzać takimi sieciami? Czy są już dostępne narzędzia kontrolujące tego rodzaju sieci?

Są to takie same pytania, jakie klienci zadawali sobie w latach 80. w odniesieniu do innej technologii - sieci LAN. Sprawdźmy zatem, czy sytuacja, w jakiej znajdują się obecnie sieci SAN, przypomina tę, w jakiej sieci LAN znajdowały się kilkanaście lat temu:

Dostępność różnych technologii sieciowych

Patrząc wstecz na sieci LAN można zauważyć, że w latach 80. panowała niepewność dotycząca podstawowej kwestii - jaka technologia sieciowa zyska statut obowiązującego standardu. Może trudno w to uwierzyć, ale Ethernet nie był w tamtym czasie wcale takim pewniakiem. Niektórzy pamiętają (a może do dziś eksploatują) sieci w takich technologiach transportu pakietów, jak Token Ring czy ARCnet. Trzeba pamiętać o tym, że zanim protokół TCP/IP opanował na dobre sieci LAN i wkroczył triumfalnie do Internetu, Novell starał się przeforsować protokół IPX, a firma Banyan Vines przekonywała, że to jej protokół jest najlepszy.

Obecnie mamy sieci SAN i zadajemy sobie podobnego rodzaju pytanie. Jaka technologia sieciowa wygra w tym środowisku? Jaki mechanizm transportu pakietów okaże się lepszy - czy ten oparty na technologii Gigabit Ethernet, czy może na technologii Fibre Channel? Może zadecyduje łatwość zarządzania i zwycięży ta technologia, która pozwoli efektywniej administrować danymi przechowywanymi w sieciach SAN.

Wiele produktów opartych na technologii Fibre Channel nie obsługuje jeszcze protokołu IP, ale produkty takie można przecież szybko przebudować, tak aby administrator mógł zarządzać nimi używając narzędzi stosowanych obecnie w sieciach LAN. Dotychczasowa praktyka wskazuje, że nie powinno to być trudne. Z drugiej jednak strony warto zauważyć, że Gigabit Ethernet może też z powodzeniem transportować olbrzymie ilości danych przechowywanych w urządzeniach SAN, a rynek oferuje już szereg zaawansowanych narzędzi zarządzających takim środowiskiem.

No cóż - trzeba tylko cierpliwie poczekać.

Dostępność różnych urządzeń sieciowych

Jaka przyszłość?

Minęły już ponad dwa lata od momentu, gdy producenci pamięci zaprezentowali koncepcję sieci pamięci masowych – SAN (Storage Area Network), traktując to rozwiązanie jako alternatywę dla tradycyjnych technologii opartych na kojarzeniu urządzeń pamięci masowych z konkretnym serwerem.

I chociaż użytkownicy od razu „kupili” ten pomysł, to z praktyką nie jest już tak różowo jak z teorią. SAN rzeczywiście pozwala budować szybko pracujące sieci, które obsługują wyłącznie pamięci masowe. Do tej pory pamięci masowe i serwery plików oraz aplikacji współużytkowały tę samą sieć. Teraz może być inaczej. Cóż z tego, skoro w praktyce brak jest rozwiązań "pod klucz", które można by od razu wprowadzić do systemu informatycznego i którymi można by efektywnie zarządzać.

Brak standardów – to jest właśnie obecnie główne zmartwienie zarówno producentów, jak i użytkowników zainteresowanych tą technologią. Istnieją co prawda standardy opisujące pracę urządzeń wykorzystujących technologię Fibre Channel, ale poszczególni producenci urządzeń SAN interpretują je w różny sposób i stosują tylko te specyfikacje, które im odpowiadają. W efekcie mamy sytuację, w której można tylko marzyć o zgodności rozwiązań oferowanych przez różne firmy.

Z pomocą przychodzą takie organizacje jak Storage Networking Industry Association (SNIA), Fibre Channel Industry Association, Fibre Channel Alliance Open System Fabric Initiative (OSFI), które próbują uporządkować sytuację i z którymi współpracuje coraz więcej firmy mających w swoich ofertach urządzenia SAN.

Można już odnotować pewne sukcesy. I tak OSFI jest autorem standardu, dzięki któremu przełączniki Fibre Channel wytwarzane przez różnych producentów mogą ze sobą współpracować. Fibre Channel Alliance pracuje intensywnie nad specyfikacją Management Information Base (MIB), która pozwoli zarządzać sieciami SAN. Bazy danych SAN MIB mają stosować tak znani producenci urządzeń sieciowych jak Veritas i Legato. Z kolei SNIA – chyba najważniejsza organizacja promująca sieci SAN – powołała do życia 10 grup roboczych, pracujących nad szeregiem nowych standardów opisujących pracę urządzeń Fibre Channel/SAN.

Badania kosztują

Producenci sprzętu sieciowego wydają olbrzymie sumy na laboratoria, w których testują sieci SAN. Podamy tylko dwa przykłady. Firma EMC zbudowała laboratorium, które kosztowało ponad 2 mld USD i w którym zgromadzono pamięci masowe o ogólnej pojemności 1,5 petabajta (1,5 mln miliardów bajtów). IBM testuje sieci SAN w laboratorium zbudowanym kosztem 500 mln USD.

Compaq też nie próżnuje: firma, przystępując niedawno do budowy podobnego laboratorium, kooperuje ściśle z SNIA. W laboratorium tym będą mogli prowadzić badania wszyscy członkowie tej organizacji. A wszystko po to, aby doprowadzić do sytuacji, w której urządzenia SAN będą ze sobą zgodne. Kompatybilność – słowo to spędza sen z powiek wszystkim zainteresowanym dalszym rozwojem technologii SAN.

A jest o co walczyć. Ogólne obroty na rynku produktów SAN wynoszą obecnie ok. 3,4 mld USD. Firma IDC przewiduje, że w 2003 r. suma ta wzrośnie do poziomu 13 mld USD. Z kolei firma Dataquest podaje, że w 1998 r. sprzedano sprzęt Fibre Channel za 140 mln USD, a w 2003 r. obroty na tym rynku mają wynieść 3,5 mld USD. Nie ma się więc co dziwić, że producenci wydają tak olbrzymie sumy na badania i laboratoria. Stać na to jednak tylko nielicznych. Stąd wniosek, że pierwsze skrzypce grać będą w najbliższych latach giganci na rynku.

Inne podobieństwo, występujące między dzisiejszymi sieciami SAN i wczorajszymi sieciami LAN, dotyczy tak ważnej sprawy, jak rodzaj urządzeń sieciowych. Sieci LAN pracowały przez dłuższy czas wykorzystując takie urządzenia jak koncentratory, routery i mosty. Przełączniki weszły do użytku dopiero później. Na początku były to bardzo drogie węzły sieci, stosowane wyłącznie w najbardziej krytycznych obszarach i obsługujące tylko szczególnie wymagające aplikacje. Z upływem czasu zanikł podział na routery i mosty (pojawiły się węzły sieci, które potrafiły zarówno trasować, jak i mostować pakiety), a cena przełączników spadła do takiego poziomu, że zaczęto je stosować właściwie w każdym bez wyjątku środowisku sieciowym.

Na początku technologia SAN przewidywała stosowanie pętli arbitrażowej Fibre Channel (Fibre Channel Arbitrated Loop) i dopiero później pojawiła się koncepcja, aby użyć bardziej zaawansowanych technik: wydajnych układów i centralnych magistral, które potrafią bardzo szybko przełączać napływające do nich pakiety. Ale sieci SAN ciągle ewoluują i w przyszłości dojdzie prawdopodobnie do połączenia tych dwóch metod, tak iż jedno urządzenie będzie mogło obsłużyć pętlę arbitrażową oraz w razie potrzeby uruchomić mechanizm przełączania pakietów.

Ograniczona współoperatywność

We wczesnym stadium rozwoju sieci LAN trudno było mówić o czymś takim jak współoperatywność urządzeń. Dlatego większość użytkowników wybierała urządzenia oferowane przez jednego producenta lub przez kilku dających gwarancję, że oferowane przez nich rozwiązania sieciowe (sprzęt i oprogramowanie) zostały przetestowane pod kątem współoperatywności.

Kolejne produkty wprowadzane na rynek przez różne firmy pracowały coraz częściej zgodnie z maksymą "włącz i używaj", ale nawet dzisiaj znajdą się użytkownicy doceniający zalety tego, że pracujący w sieci sprzęt został wyprodukowany przez jedną firmę. Wiadomo, że nie ma wtedy specjalnych problemów z konfigurowaniem takiej sieci i zarządzaniem nią. W świecie LAN nie ma pełnej współoperatywności (uwaga ta dotyczy głównie oprogramowania zarządzającego sieciami LAN).

Sieci SAN czeka prawdopodobnie podobny los. Poszczególne rozwiązania będą ewoluować, aż dopracujemy się pewnych ogólnie uznanych standardów; ceny urządzeń SAN spadną do takiego poziomu, że nie będą już odgrywać decydującej roli przy wyborze rozwiązania; współoperatywność poprawi się na tyle, że będziemy mogli wreszcie łączyć „wszystko ze wszystkim“, chociaż w dalszym ciągu lepiej będzie ograniczać do minimum spektrum producentów.

Mnóstwo dostawców

Jeśli chodzi o dostawców rozwiązań, to podobieństwo może być wręcz uderzające. Pamiętamy przecież, że producenci sprzętu LAN łączyli się i tworzyli najróżniejsze konstelacje, aż rynek się ustabilizował i ostali się na nim tylko najlepsi i najsilniejsi. To samo można powiedzieć o producentach oprogramowania zarządzającego sieciami LAN.

Nie ma wątpliwości, że sieci SAN podążą tą samą drogą. Dlatego wybierając dostawców rozwiązań należy brać pod uwagę, czy mogą oni w przyszłości nawiązać ze sobą współpracę, inicjować wspólne przedsięwzięcia lub nawet się połączyć.

Rzecz, która różni sieci SAN i LAN, dotyczy bardziej sfery strategii niż samej technologii. Kiedy powstawały sieci LAN i pierwsi użytkownicy korzystali głównie z takich usług jak dostęp do plików i drukowanie, to jeśli ta sieć odmawiała posłuszeństwa, można było zawsze przepisać plik z jednego komputera do drugiego, posługując się dyskietką. Nikt nie robił z tego powodu tragedii. Dzisiaj jest inaczej - każdy uważa, że sieć powinna pracować absolutnie niezawodnie i powinna być zawsze dostępna. Dlatego przed sieciami SAN stawiane są wymagania 100-procentowej dostępności już na samym początku rozwoju tej technologii. Dostępność przez siedem dni w tygodniu i przez 24 godziny na dobę - żadnych przerw w pracy. Są to wymagania, którym trudno jest tak od razu sprostać. Sieci LAN miały łatwiejszy start.

Biorąc pod uwagę podobieństwa występujące w takich obszarach jak urządzenia sieciowe, które transportują dane przechowywane w pamięciach masowych, współoperatywność i zarządzanie, sieci SAN przypominają w dużym stopniu sieci LAN. Tak jak sieci LAN zrewolucjonizowały swego czasu sposób przetwarzania danych w przedsiębiorstwach, tak sieci SAN mogą teraz zrewolucjonizować sposób, w jaki dane są przechowywane w systemach informatycznych i jak można nimi zarządzać. A więc druga rewolucja? Za 20 lat sieci SAN mogą odgrywać równie ważną i kluczową rolę, jaka przypadła dzisiaj sieciom LAN. I tak jak we wczesnym stadium rozwoju sieci LAN, tak i dzisiaj można sobie zadać pytanie: kto przejmie odpowiedzialność za dalszy rozwój tej technologii?

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200