Pamięci masowe pod kontrolą oprogramowania

Sprzęt też jest ważny

SDS nie jest rozwiązaniem czysto programowym. Owszem, całością steruje oprogramowanie, które działa na platformie sprzętowej – serwerach oraz pamięciach masowych. Dobór sprzętu wciąż musi podlegać określonym kryteriom, aby zapewnić obsługę aplikacji na poziomie korporacyjnym. Mówiąc obrazowo, jeśli firma chce zaoszczędzić, kupując najtańsze, regenerowane dyski 5400 RPM, nie może oczekiwać, że zapewnią one stabilne działanie w dłuższym terminie oraz będą cechowały się wysoką wydajnością.

To dlatego producenci dostarczający systemy SDS często oferują prekonfigurowane pakiety składające się ze sprzętu i oprogramowania. W świecie korporacyjnym stałe wsparcie techniczne dla infrastruktury jest bezwzględnym wymogiem. Bo od posiadania wsparcia zależy, czy system będzie działał poprawnie. Jednak nie należy wysuwać zbyt daleko idących wniosków z faktu sprzedawania razem sprzętu i oprogramowania. Całe rozwiązanie ma przede wszystkim programowy charakter.

W tym obszarze można wyróżnić dwie grupy producentów. Pierwsza to tradycyjni dostawcy macierzy: EMC, HP, Hitachi, IBM czy NetApp. Biorąc pod uwagę, że firmy te zarabiają przede wszystkim na dostawach sprzętu, należy podejść z pewną rezerwą do oferowanych przez nie produktów SDS. Druga grupa to producenci oprogramowania SDS, którzy sami nie produkują macierzy, ale korzystają z podstawowych modeli innych producentów. Tutaj można wymienić kilka firm: Nimble, Nutanix, Solidfire, Tintri, Zadara Storage.

Zupełnie odrębną grupę stanowią producenci mający w ofercie wyłącznie oprogramowanie SDS. Z jednej strony jest to wada, ponieważ można powiedzieć, że swoją ofertą pokrywają tylko pierwsze S (software). Nie świadczą również wsparcia dla sprzętu, a jedynie dla swojego oprogramowania. Z drugiej strony, w ich przypadku nie ma konfliktu interesów pomiędzy sprzedażą oprogramowania i sprzętu. Dlatego są najbardziej wiarygodni jeśli chodzi o budowę warstwy wirtualizacji sprzętu. Jednocześni każdy z tych producentów udostępnia listy zgodności zawierające informacje o sprzęcie kompatybilnym z danym oprogramowaniem, Do tej grupy zaliczają się Atlantis Computing, CloudByte, DataCore, Nexenta, Maxta oraz Sanbolic.

Widać wyraźny podział. Pierwsza grupa to wyłącznie bardzo duzi dostawcy. Pozostałe dwie grupy to prawie wyłącznie nowe firmy. Z dużym prawdopodobieństwem będziemy obserwować konsolidację na tym rynku, polegającą na wykupywaniu małych graczy przez gigantów z branży. Jednak nowi gracze rosną w siłę i mają coraz bardziej dojrzałą ofertę, jest więc możliwe, że dojdzie również do jakichś przetasowań na rynku.

Miejsce sprzętu w systemach SDS

Migracja w kierunku centrów danych sterowanych programowo dobrze wróży dostawcom sprzętu, w szczególności tym oferującym tańsze systemy pamięci masowych. Owszem, bez sprzętu system SDS nie będzie działać. Jednak rola macierzy w takim środowisku jest prosta. Musi on spełniać kilka warunków. Po pierwsze, musi być możliwość wymiany sprzętu. Jeśli macierz wymaga wymiany, zastąpienie jej innym modelem nie powinno mieć negatywnego wpływu na działanie całego rozwiązania. Będzie to możliwe, jeśli nowa macierz nie będzie wyposażona w żadne zastrzeżone rozwiązania.

Przykładowo, systemy SDS należy budować tak, aby umożliwiały płynne wdrażania nowych technologii Flash. Coraz większe inwestycje w technologie pamięci masowych pozwalają wierzyć, że pojawi się wiele innowacji. Przykładowo, produkty NVMe (Non-Volatile Memory express) mają się powszechnie pojawić na rynku jeszcze w tym roku, m.in. od Intela.

Dedykowane układy ASIC oraz FPGA odejdą w przeszłość. Zamknięte rozwiązania sprzętowe nie mają racji bytu w świecie SDS. Zastąpi je zaawansowane oprogramowanie replikujące funkcjonalności oferowane dotychczas przez układy ASIC oraz FPGA. Dostępne na rynku procesory x86 są wystarczająco wydajne, aby obsługiwać system SDS i wszystkie jego komponenty. Co więcej, Intel wciąż pracuje nad optymalizacją procesorów i przyspieszeniem wykonywania specyficznych zadań dzięki nowym zestawom instrukcji, aby osiągnąć wydajność porównywalną ze specjalizowanymi układami ASIC. SHA-1, mechanizm wykorzystywany w niektórych macierzach do deduplikacji, jest już dostępny bezpośrednio w zestawie instrukcji x86.

Cierpienia wdrożenia

Mimo wielu zalet wdrożenie SDS nie należy do łatwych zadań. Cały obecny ruch w kierunku wirtualizacji „wszystkiego” wyszedł od takich firm, jak Google i Facebook, który doszły do wniosku, że dotychczasowe paradygmaty centrów danych są kosztowne, niewydajne i trudne do skalowania. W szczególnie firmy te przyjrzały się warstwie pamięci masowych i podjęły decyzję, że dla tradycyjnych urządzeń SAN i NAS nie ma miejsca w ich centrach danych. Dlatego powołały zespoły badawcze, które miały opracować plan pozbycia się tego sprzętu. Jednocześnie te firmy potrzebowały rozwiązania, które dałoby się skalować do milionów czy wręcz miliardów użytkowników w sposób, który nie wywoła lawiny wydatków.

Sukces w działaniach był efektem sprytnego wyboru platform sprzętowych – wyłącznie podstawowe komponenty i urządzenia. Drugim decydującym czynnikiem było użycie oprogramowania jako mechanizmu służącego do skalowania. Doświadczenia płynące z tych wysiłków utorowały rozwiązaniom typu software defined drogę do korporacyjnych środowisk IT. Dlatego podstawowy cel jest obecnie dobrze pojmowany – uniezależnić SDS od zamkniętych platform sprzętowych.

Jednakże sprzęt wykorzystujący architekturę x86 nie ma wbudowanych takich mechanizmów, jak wysoka dostępność czy redundancja, które są natomiast dostępne w zamkniętych platformach macierzowych. W rzeczywistości, jeśli ktoś spróbowałby zbudować rozwiązanie na takim sprzęcie bez odpowiedniej warstwy zarządzającej, bardzo szybko przekonałby się o jego ułomnościach.

W tym miejscu na scenę wkracza oprogramowanie. W systemach SDS możliwości sprzętu zostają rozszerzone dzięki programowym mechanizmom, które umożliwiają włączenie węzłów sprzętowych w rozproszony klaster, który można liniowo skalować. W takim skalowalnym wszerz modelu każdy węzeł x86 zawiera bezpośrednio podłączone dyski (DAS) czy nośniki SSD, z których mogą korzystać wszystkie węzły i aplikacje. Co więcej, skalowalność nie dotyczy tylko pojemności, ale również mechanizmów kontrolujących pamięci masowe. To pozwala uniknąć wąskich gardeł, gdy środowisko się rozrasta.

W klastrze SDS wysoka dostępność danych jest osiągana raczej przez niezawodność oprogramowania niż dzięki wykorzystaniu sprzętowej redundancji. W rzeczywistości projektując warstwę programową, przyjęto założenie, że sprzęt może się psuć. Stworzono więc mechanizmy, które potrafią natychmiast wykryć awarię sprzętową i odpowiednio zareagować, aby dotrzymać parametrów SLA. Przykładowo, zamiast korzystać z drogich, mało wydajnych i coraz mnie niezawodnych macierzy RAID, w systemach SDS można zdecydować się na korzystanie z replik w celu ochrony danych (system przechowuje wiele kopii danych w różnych miejscach klastra).

Komponenty prosto z półki

Możliwość wykorzystania podstawowych komponentów sprzętowych to jeden z filarów koncepcji SDDC (Software Defined Data Center) i bardzo ważny komponent SDS. Producent może zastosować komponenty dostępne „z półki” do zbudowania taniego systemu pamięci masowych, często umieszczone w standardowej obudowie serwerowej, z procesorem i płytą główną x86, twardymi dyskami czy nośnikami SSD.

Zastosowanie procesora x86 oznacza, że producent nie musi prowadzić badań nad własnym procesorem czy całą platformą sprzętową, a to pozwala mu na skupieniu się na oprogramowaniu, które jest rzeczywistą siłą SDS.

Celem SDS jest wykorzystanie sprzętowych systemów pamięci masowych, w których fabrycznie niczego nie zdefiniowano. To znaczy, że funkcjonalność macierzy nie jest determinowana przez komponenty zastosowane w procesie produkcji. Zamiast tego cechują się elastycznością, która umożliwia dostosowanie się do mechanizmów programowych w trakcie całego okresu eksploatacji. Mówiąc w skrócie, nic nie jest zaimplementowane sprzętowo, ale za to elastyczność jest wybitna. Użytkownik ma więc możliwość używania po prostu tego samego standardu sprzętowego, jak w przypadku serwerów i nie musi się specjalnie troszczyć, gdy zajdzie konieczność wymiany sprzętu.


TOP 200