7 technologii dla pamięci masowych

Systemy pamięci masowych rozwijają się w bardzo szybkim tempie, próbując dotrzymać tempa zapotrzebowaniu firm, choć te jak mantrę powtarzają tylko jedno zdanie: chcemy przechowywać więcej za mniej.

Rozwiązania pamięci masowych stają się coraz bardziej skomplikowane. Nowe technologie, szybki rozrost infrastruktury, eksplozja ilości danych dostępnych w Internecie i brak odpowiedniego poziomu bezpieczeństwa powodują, że trudno dziś budować proste systemy pamięci masowej, a także zapewnić ich pełną utylizację. Choć jednak priorytety zmieniają się w czasie, nie zmienia się dążenie do obniżenia kosztów przechowywania i zarządzania coraz szybciej rosnącą ilością danych. Poniżej prezentujemy siedem głównych trendów związanych z pamięciami masowymi, które mają znaczny wpływ na funkcjonowanie centrów danych w najbliższej przyszłości.

1. Łączność

Rynek sieci SAN bazujących na technologii Fibre Channel nieznacznie się kurczy, ale wciąż jest dominujący wśród innych technologii łączności sieciowej dla pamięci masowych. Oferowane obecnie przepustowości to 4 Gb/s, a planowane na niedaleką przyszłość - 8 Gb/s.

Największą konkurencją dla FC są obecnie bazujące na technologii Ethernet rozwiązania iSCSI. Dzięki temu że jako warstwa transportowa wykorzystywane są tam tradycyjne sieci Ethernet, rozwiązania te są zdecydowanie tańsze od FC. Obecnie najczęściej wykorzystywany jest w nich osprzęt gwarantujący transfery na poziomie 1 Gb/s (a więc znacznie wolniej niż w przypadku FC), ale gdy tylko spopularyzują się sieci Ethernet działające z prędkością 10 Gb/s, technologia Fibre Channel będzie bardzo zagrożona.

Nie zyskała znacznej popularności technologia InfiniBand - szybka i gwarantująca małe opóźnienia. Dziś wykorzystywana jest głównie w rozwiązaniach niszowych, najczęściej w systemach obliczeń wysokiej wydajności HPC, gdzie zapewnia łączność w architekturze klastrowej.

2. Zarządzanie warstwami pamięci masowych

Dzieląc posiadane systemy pamięci masowych na warstwy i umieszczając w poszczególnych warstwach dane skategoryzowane według ich wartości i konieczności zapewnienia dostępności, firmy mogą zapewnić sobie znaczne oszczędności - przede wszystkim w wyniku lepszego wykorzystania już posiadanych rozwiązań pamięci masowych. Ułatwione też będzie zarządzanie strukturą pamięci masowych w firmie.

Tego typu warstwy były już wykorzystywane w systemach HSM (Hierarchical Storage Management), gdzie na tańsze (ale wolniejsze) nośniki automatycznie były kopiowane pliki, z których korzystano najrzadziej. Teraz podobne rozwiązania powstają dla serwerów baz danych i e-mail, pomagając zarządzać dużymi zbiorami informacji poprzez pryzmat ich wartości dla firmy.

3. Thin provisioning

Większość szefów działów IT przyznaje, że wykorzystuje tylko 30-40% przestrzeni dyskowej w macierzach. Przyczyną jest brak możliwości skutecznego zarządzania woluminami dyskowymi. Rozwiązaniem problemu jest rozbudowa architektury pamięci masowych i wdrożenie rozwiązań określanych jako thin provisioning, które pomogą zwiększyć poziom wykorzystania dostępnych pamięci, ale poprawią także bezpieczeństwo danych i skuteczność wykonywanych backupów.

Thin provisioning eliminuje konieczność przypisywania konkretnych pojemności dyskowych poszczególnym aplikacjom. Dla całego środowiska dostępna jest jedna, wirtualna pula, z której aplikacje mogą korzystać. Administrator ma możliwość elastycznego zarządzania i obserwacji poziomu wykorzystania udostępnionych puli.

4. Elastyczność infrastruktury

Centra danych w firmach muszą dostarczać jak najwyższego poziomu dostępności aplikacji i integralności danych, aby wspierać jednostki biznesowe w swoich działaniach. Menedżerowie centrów danych starają się spełnić te wymagania walcząc przede wszystkim z nieplanowanymi przestojami systemów IT w firmie, a także chroniąc dane przed ich utratą bądź uszkodzeniem.

Chociaż różnego rodzaju kataklizmy są najbardziej widowiskowym zjawiskiem dla opinii publicznej, to jednak najczęstszą przyczyną utraty danych lub przestojów są błędy sprzętu, oprogramowania bądź człowieka. Aby uzyskać dostępność systemu na poziomie 99,999% (30 s przestoju w ciągu roku), potrzebne jest wykorzystanie specjalnych rozwiązań odpornych na różnego rodzaju zagrożenia.

5. Dostępność aplikacji

Dla zarządów firm sytuacją idealną byłoby, gdyby mogli żądać zagwarantowania dostępności aplikacji na poziomie 100% (szczególnie dla tych najbardziej krytycznych dla biznesu). Możliwość realizacji tych żądań ma duży związek nie tylko z serwerami, ale także z pamięciami masowymi.

Jeśli chcemy poprawić dostępność naszych aplikacji i przyspieszyć realizację procesu disaster recovery, potrzebujemy takiej architektury pamięci masowych, która ochroni nas zarówno przed planowanymi, jak i nieplanowanymi przestojami, pozwalając w szybki sposób przywrócić ciągłość działania, gdy wystąpi awaria. System pamięci masowych powinien móc zaadresować wszystkie rodzaje i przyczyny przestojów - chronić przed błędem ludzkim, błędem aplikacji, pozwalać na minimalizację planowanych przestojów i wspierać procedury realizacji planu disaster recovery. Pamiętać trzeba też, że podawane przez producentów poziomy dostępności dotyczą z reguły tylko sprzętu, zaś finalnie potrzebujemy określić poziom dostępności całego rozwiązania, a więc sprzętu, aplikacji i dostępności danych.

6. Wsparcie dla wielu protokołów

Warto zastanowić się nad systemem, który pozwoli w pełni korzystać z dobrodziejstw sieciowych pamięci masowych, takich jak NAS czy SAN. Większość oferowanych dziś macierzy dyskowych może funkcjonować jako tzw. unified storage. Ta unifikacja polega na połączeniu dwóch funkcjonalności - sieci SAN (możliwość blokowego zapisu danych, wykorzystywana przez bazy danych) i serwerów NAS (zapis plików, z których mogą korzystać pracownicy firmy). Takie rozwiązanie typu "dwa w jednym" pozwala na lepszą utylizację przestrzeni dyskowej oraz ułatwia zarządzanie, szczególnie dla osób, które nie mają dużego doświadczenia z pamięciami masowymi.

7. Bezpieczeństwo

Korzyści płynące z wykorzystania sieciowych systemów pamięci masowych (takich jak SAN czy NAS) są oczywiste, ale umieszczenie danych firmy w sieci wystawia je na duże ryzyko. Każda firma powinna podjąć odpowiednie kroki, aby zapewnić tak udostępnionym danym odpowiedni poziom bezpieczeństwa, a przede wszystkim chronić je przed niepowołanym dostępem. Co więcej, większość czynności chroniących dane przed ich utratą (replikacja, backup, kopia lustrzana itd.) dodatkowo zwiększają prawdopodobieństwo możliwości nieautoryzowanego dostępu.

Takie technologie jak firewall, systemy wykrywania włamań (IDS) czy wirtualne sieci prywatne (VPN) chronią sieć, ale nie chronią danych. Tutaj z pomocą przychodzą technologie szyfrowania, które powinny być stosowane przede wszystkim tam, gdzie dane są wynoszone poza firmę (zapasowe centra danych, oddziały przechowujące kopie danych na taśmach itp.).

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200