Nowa architektura macierzy

Jeśli wyzwaniem jest ilość danych, z pomocą znów przychodzi oprogramowanie bazodanowe, które kompresuje dane przed zapisem. W komercyjnych serwerach baz danych to już obecnie standard. Wielordzeniowe procesory potrafią skompresować i zapisać wielkie ilości danych na sekundę, w szczególności w połączeniu z dobrze ulokowanymi w architekturze pamięciami Flash. Gdy ilość danych jest naprawdę duża (ale także przy mniejszych wolumenach), można wykorzystać deduplikację. Niekoniecznie zresztą w macierzach – Windows Server 2012 R2 umożliwia automatyczną deduplikację danych na poziomie blokowym, i to ze zmienną wielkością bloku (32–128 KB).

Tradycyjnie pojęta centralizacja również odchodzi do lamusa. W dużej mierze dlatego, że skala wielu środowisk po prostu uniemożliwia przechowywanie danych w ramach jednego urządzenia. Modularność stała się koniecznością, przy czym w nowoczesnych architekturach wydajność (kontroler, de facto serwer z oprogramowaniem) może skalować się łatwo wraz z nośnikami danych, czego przykładem jest macierz IBM XIV czy najnowsze urządzenia EMC z rodziny XtremIO. Niezależnie od tego, na skutek upowszechnienia się portali jako ram technologicznych dla aplikacji biznesowych, repozytoriów obiektowych, pojęcie pliku, a co za tym idzie, systemu plików, wolumenu itd., traci znaczenie.

Backup do lamusa?

Nowoczesne systemy składowania danych nie przewidują potrzeby wykonywania tradycyjnie rozumianych kopii zapasowych w celu ochrony danych – ochrona ta jest bowiem wpisana w architekturę (wspomniane macierze IBM XIV to chyba najlepszy przykład). W rezultacie zewnętrzne rozwiązania backupowe będą już wkrótce zanikać lub przekształcać się w rozwiązania archiwizacyjne. Nowoczesne systemy rozpraszają dane na bardzo wielu dyskach i automatycznie wykonują kopie logiczne (snapszoty). W razie awarii aplikacji poprawne i spójne dane dostępne są od razu. Awaria jednego, dwóch, a nawet większej liczby dysków nie są im straszne.

Jeśli chodzi o kopiowanie danych, tu także zachodzą zmiany. Każda kopia, nawet logiczna, po pewnym czasie zaczyna zajmować sporo miejsca. A potrzeb przybywa. W praktyce odrębne kopie wykonywane są dziś na potrzeby ochrony bieżącej, ochrony na wypadek katastrofy (disaster recovery), bieżącej replikacji zdalnej, archiwizacji, kopii zwiększających wydajność dostępu, analiz biznesowych, środowisk testowych... To jeszcze jeden powód, dla którego monolityczne systemy dyskowe nie są w stanie spełnić wymagań współczesnych aplikacji.

Mnogość kopii, wykonywanych i przekazywanych dalej w różnym czasie i w różnych celach, woła o optymalizację, do której jednak dostawcy tradycyjnych platform – z oczywistych powodów – wcale się nie spieszą. Do tej pory tylko jedna firma – Actifio – stworzyła kompleksowe rozwiązanie w tej dziedzinie. Dzięki niemu jedna, zawsze aktualna kopia danych jest automatycznie udostępniana wszystkim „zainteresowanym” aplikacjom za pośrednictwem dedykowanego rozwiązania sprzętowo-programowego. Podstawowa wersja umożliwia obsługę do 100 TB danych produkcyjnych. Firma oferuje także produkt wirtualizacyjny (Actifio Enterprise Gateway), pozwalający wykorzystać na potrzeby kopii istniejące macierze.

Sprzedaż Actifio w Stanach Zjednoczonych rośnie w zawrotnym tempie, co nie uchodzi uwagi dużych graczy. Do gry wkroczy zapewne wkrótce EMC. Steven Manley, dyrektor ds. technologii Backup and Recovery Systems Division, wchodzącej w skład nowo utworzonej jednostki Data Protection and Availability Division (DPAD), już przekonuje na swoim blogu, że backup jaki znamy, nie ma przed sobą wielkiej przyszłości. Jest ponoć zbyt wolny i zawodny w stosunku do potrzeb...


TOP 200