Czy obecna infrastruktura sprosta sieciom SAN?

Sieci SAN (Storage Area Networks) i urządzenia NAS (Network Attached Storage) cieszą się coraz większą popularnością użytkowników. Dotychczasowe wdrożenia potwierdzają bowiem ich przydatność w systemach, w których są wymieniane duże porcje danych między wieloma serwerami i stacjami sieciowymi.

Sieci SAN (Storage Area Networks) i urządzenia (Network Attached Storage) cieszą się coraz większą popularnością użytkowników. Dotychczasowe wdrożenia potwierdzają bowiem ich przydatność w systemach, w których są wymieniane duże porcje danych między wieloma serwerami i stacjami sieciowymi.

Podejmując decyzję o inwestycji w SAN, trzeba jednak zdawać sobie sprawę z zagrożeń, wynikających z wyboru określonej technologii. Wyraźnie widoczny jest problem skalowalności sieci. Szybkości transmisji danych rzędu 1-2 Gb/s, choć obecnie wystarczające, już za kilka lat mogą okazać się zbyt małe.

Problem tymczasowo rozwiązany

Przed wprowadzeniem sieci SAN zmartwieniem producentów sprzętu było uniezależnienie pamięci masowych od konkretnych serwerów. Ten problem skutecznie rozwiązano poprzez umożliwienie wielu serwerom dostępu do scentralizowanej pamięci masowej z wykorzystaniem dedykowanej sieci, budowanej najczęściej na bazie łączy Fibre Channel. Dzięki zastosowaniu przełączników Fibre Channel zamiast używanych wcześniej koncentratorów rozwiązano również problem dostępu wielu serwerów do pojedynczych wysoko skalowalnych macierzy.

O ile przesyłanie danych w wydzielonej sieci SAN, działającej z szybkością rzędu gigabitów, nie wpływa na pogorszenie transferu w zwykłej sieci korporacyjnej, o tyle zastosowanie urządzeń NAS może w krótkiej perspektywie stać się kłopotliwe. Urządzenia NAS to dedykowane pamięci masowe włączane bezpośrednio do sieci z wykorzystaniem interfejsów o dużej przepustowości (np. Gigabit Ethernet) lub bramki integrującej LAN z SAN, pośredniczące w przekazywaniu danych do stacji i serwerów nie wyposażonych w interfejsy Fibre Channel. Generowany przez NAS przepływ danych nie jest jednak jedynym rodzajem transmisji w sieci, jak w przypadku wydzielonych sieci SAN, lecz musi współistnieć z innymi - danymi pobieranymi z Internetu, komunikacją VoIP itp. Szybka technologia Gigabit Ethernet jest obecnie wykorzystywana w bardzo ograniczonym zakresie, zazwyczaj tylko w szkieletach LAN, a stacje robocze dysponują pasmem zaledwie 100 Mb/s lub 10 Mb/s. To powoduje, że sieci korporacyjne wkrótce mogą być przeciążone stale wzrastającym wolumenem danych. Jeszcze do niedawna podstawowym ograniczeniem szybkości transmisji danych z pamięci masowych dostępnych w sieci była wydajność systemów operacyjnych, pracujących na serwerach, do których pamięci były podłączone. Dziś dostępne na rynku urządzenia NAS i SAN wysyłają i odbierają w ciągu sekundy znacznie więcej danych niż tradycyjne .

Skalowanie na żądanie?

Co się stanie, jeżeli ilość przechowywanych i transmitowanych danych w sieciach SAN i za pośrednictwem urządzeń NAS zdecydowanie wzrośnie? Co się będzie działo, jeśli urządzenia NAS zaczną przesyłać siecią lokalną tyle danych, że zatamują pozostały ruch (może do tego dojść, o ile spopularyzuje się standard iSCSI, umożliwiający łączenie odległych urządzeń SCSI z wykorzystaniem sieci IP)? Czy środo- wiska SAN i NAS oferują obecnie możliwości elastycznego skalowania?

Sieci lokalne oparte na technologii Ethernet mogą już efektywnie funkcjonować z szybkością 1 Gb/s - nawet w przypadku zastosowania taniego okablowania miedzianego. Wszystko wskazuje również na to, że technologia ta osiągnie poziom transmisji 10 Gb/s. Podobną do Ethernetu ewolucję przechodzi również Fibre Channel. Są już dostępne prototypowe rozwiązania, wykorzystujące transmisję z szyb- kością 2 Gb/s, a osoby zaangażowane w rozwój tego standardu dyskutują również na temat zwiększenia przepustowości do 10 Gb/s.

Wydawać by się więc mogło, że perspektywy rozwoju Ethernetu i Fibre Channel dobrze rokują przyszłości rozwiązań SAN i NAS. Nie jest to jednak tak oczywiste. Zakładając, że ilość danych, transmitowanych w sieciach firmowych, wzrasta w tempie 30% rocznie (założenie dosyć optymistyczne), to już za 5 lat będzie konieczne stosowanie sieci o wydajności czterokrotnie większej niż dzisiaj! Skalowanie wydajności będzie wymagało bardzo kosztownych inwestycji infrastrukturalnych. Zastosowanie technologii 10 Gb/s (czy to Ethernet, czy Fibre Channel) w szkieletach sieci SAN i LAN zapewne spowoduje zapotrzebowanie na nowe okablowanie i przełączniki, wydajne urządzenia translujące protokoły transmisji danych, a także specjalizowane oprogramowanie zarządzające ruchem. Może się okazać, że wymiany okablowania miedzianego na światłowodowe nie uniknie się nawet w sieciach lokalnych.

W jaki sposób więc będzie można rozwiązać problemy związane ze skalowaniem sieci SAN? Najszybszym i najłatwiejszym rozwiązaniem wydaje się zrównoleglenie kilku łączy Fibre Channel w celu osiągnięcia zagregowanej przepustowości między krytycznymi węzłami sieciowymi i pamięciami masowymi. W perspektywie kilku lat producenci prawdopodobnie opracują rozwiązania, które umożliwią wykorzystanie technologii WDM (Wave Division Multiplexing) na łączach światłowodowych podłączonych do pamięci masowych. Umożliwi to znaczące zwiększenie przepustowości poprzez zwielokrotnienie liczby kanałów komunikacyjnych w pojedynczym włóknie światłowodowym poprzez zastosowanie światła o różnych kolorach.