Pamięci masowe pod kontrolą oprogramowania

Pamięci masowe coraz silniej przykuwają uwagę producentów starających się stworzyć produkty, które zmniejszą lub wyeliminują problemy związane z tradycyjnym przechowywaniem danych. Dlatego koncepcja Software Defined Storage zatacza coraz szersze kręgi.

Wiele z popularnych technologii pamięci masowych zostało zaprojektowanych w zupełniej innej rzeczywistości informatycznej. Z budowano je przy założeniu, że aplikacje będą zawsze działać na dedykowanym sprzęcie. Wirtualizacja sprawiła, że dzisiaj to założenie nie ma racji bytu. Niestety rozwój systemów pamięci masowej został w tyle za zmieniającymi się potrzebami użytkowników, jak chęć budowy środowisk chmurowych, organizowanie infrastruktury wokół maszyn wirtualnych czy udostępnianie zasobów na żądanie.

Tradycyjne macierze mają kilka wad. Po pierwsze, nie są w stanie w pełni wykorzystać możliwości oferowanych przez nośniki Flash. Po drugie, są zbyt skomplikowane. Administrator musi pamiętać o konfiguracji wielu elementów, m.in. LUN’ów, grup RAID czy warstw (tiering). Po trzecie, tradycyjna macierz stanowi odizolowaną wyspę zasobów. Po czwarte, są bardzo kosztowne w rozbudowanie. Z reguły polega ona na dokładaniu półek z drogimi dyskami klasy korporacyjnej.

Co więcej, w opublikowanym w czerwcu tego roku raporcie przygotowanym przez firmę VMware pada stwierdzenie, że przygotowanie infrastruktury potrzebnej do uruchomienia aplikacji (serwerów, sieci, pamięci masowych) wciąż potrafi trwać nawet 5 miesięcy w dużych korporacjach. Dzieje się tak mimo powszechnej wirtualizacji serwerów. Dlatego potrzebny jest kolejny klocek układanki – wirtualizacja pamięci masowych. SDS umożliwia wykorzystanie technologii, które są proste w konfiguracji i niedrogie w zarządzaniu. Gdy pamięci masowe staną się usługą oddzieloną od sprzętu, biznes będzie otrzymywał swoje aplikacje szybciej.

Software Defined Storage

W skostniałym świecie pamięci masowych coś jednak drgnęło i na topie jest dzisiaj hasło Software Defined Storage (SDS). Ten zbiór głównie programowych mechanizmów ma być odpowiedzią na wspomniane bolączki. SDS wprowadza logiczną warstwę, która ma umożliwiać łączenie w pule, przynajmniej w założeniu, dowolnych pamięci masowych: starych, obecnych czy przyszłych, niezależnie od typu i producenta. Oddziela sprzęt od logiki, która zarządza rozmieszczeniem danych oraz uruchamianiem funkcji angażowanych podczas operacji zapisu i odczytu danych. Efektem końcowym jest warstwa pamięci masowej, która jest bardzo elastyczna i stosunkowo łatwo dostosowuje się do nowych potrzeb.

To oznacza m.in., że funkcjonalności pamięci masowych można wprowadzać niezależnie od posiadanego sprzętu. Jednak nie znaczy to, że sprzęt przestaje być istotny i można kupować najprostsze urządzenia. Takie kwestie, jak wydajność czy niezawodność wciąż mają znaczenie. SDS umożliwia natomiast uniknięcie wielokrotnego płacenia za te same zaawansowane funkcje, jak migawki, klonowanie, thin provisioning czy deduplikacja. Ponadto umożliwia bardziej wyrafinowane wykorzystanie drogich nośników danych, jak Flash czy RAM (w przypadku rozwiązań wykorzystujących przetwarzanie w pamięci operacyjnej).

Według firmy konsultingowej Enterprise Management Associates (EMA), aby rozwiązanie uznać za SDS, musi ono mieć następujące właściwości:

  • współpracować ze wszystkimi lub większością producentów macierzy,
  • współpracować ze wszystkimi lub większością typów nośników danych (DAS, NAS, SAN, Flash, RAM),
  • oferować centralne zarządzanie wszystkimi macierzami w posiadanej infrastrukturze,
  • umożliwiać dostarczanie zasobów według zdefiniowanych reguł,
  • inteligentnie zarządzać warstwami (tiering),
  • być niezależne od hypervisora serwerowego,
  • oferować kompleksowe API.

W serwerowni rządzi hypervisor

Platformy wirtualne stały się już standardową platformą, na której działają systemy operacyjne i aplikacje w centrach danych. Niektórzy producenci macierzy podjęli więc kroki w celu dostosowanie się do tej rzeczywistości, ale zrobili to za pomocą mechanizmów oferowanych przez sprzedawców hyperwizorów, najszczęściej skupiając się na ofercie VMware. Ten producent przygotował kilka interfejsów API, która ułatwiają producentom macierzy dostosowanie macierzy dyskowy do świata maszyn wirtualnych. Są to:

  • vSphere API for Array Integration (VAAI): umożliwia zwiększenie wydajności typowych operacji dyskowych,
  • vSphere APIs for Data Protection (VADP): służy do optymalizacji backupu poprzez centralizację wykonywania kopii zapasowych,
  • vSphere API for Storage Awareness ( VASA ): umożliwia większą integrację pomiędzy macierzą a hypervisorem.

Wszystkie te udoskonalenia w integracji hypervisora z macierzami to rozwiązania programowe. Dzięki temu hypervisor może stać się nową warstwą sprzętową infrastruktury centrum danych. Spoglądając szerzej, w zdefiniowanym programowo centrum danych wszystkie usługi są zbudowane na warstwie wirtualizacji, która nie tylko oddziela dane od warstwy kontrolnej, ale umożliwia także wyposażenie pamięci masowych w nowe funkcje. Zamiast polegać na mechanizmach oferowanych przez sprzęt, użytkownik może zaspokoić swoje potrzeby, wdrażając nowe funkcje czy reguły za pośrednictwem hypervisora. Co istotne, producenci powinni budować usługi niezależnie od hypervisora działającego w danym środowisku. Usługi nie powinny być powiązane z konkretnym hypervisorem, lecz tworzone w sposób pozwalającym użytkownikom zachować elastyczność płynącą z wirtualizacji.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200