SSD: stan obecny i przyszłość

Choć na rynku jest już dostępne oprogramowanie do automatycznej migracji danych między warstwami pamięci, takie jak Dell Compellent Fluid Data czy EMC FAST (Fully Automated Storage Tiering), to jego wdrożenie w już pracujących systemach pamięci masowej, które nie zaprojektowano do takich zadań, jest często bardzo trudne.

Warto też zwrócić uwagę, że niektóre aplikacje, np. te wspomagające podejmowanie decyzji biznesowych, wykorzystują informacje historyczne, które z punktu widzenia systemu wielowarstwowego nie są danymi o wysokim priorytecie pod kątem szybkości dostępu. W efekcie, działanie tych aplikacji może być znacznie spowolnione.

Zdaniem analityków z Forrester Research, przyszłość należy do jednolitych pamięci masowych wykorzystujących tylko układy flash. Ale ich popularyzacja w znacznym stopniu zależy od opracowania efektywnych rozwiązań do deduplikacji danych w trybie online. Deduplikacja jest technologią, której zastosowanie może istotnie zmniejszyć wymagania na pojemność pamięci masowej, co naturalnie sprzyja popularyzacji SSD.

Praktyczna ocena zastosowań SSD

Choć dyski SSD zyskują popularność, to warto pamiętać, że przynajmniej obecnie wcale nie są one najlepszym rozwiązaniem w każdym zastosowaniu.

SSD umożliwiają uzyskanie bardzo wysokiej wydajności w systemach transakcyjnych oraz szczególnie niski poziom opóźnień w dostarczaniu danych, czyli rozwiązują dwa podstawowe, często spotykane problemy trapiące użytkowników centrów danych. Ale z drugiej strony, trzeba za to zapłacić znacznie wyższą cenę, zwłaszcza że pojemność SSD jest znacznie mniejsza niż dysków klasycznych.

Dlatego też wiedza, gdzie i w jakich elementach infrastruktury IT warto zastosować pamięć masową opartą na SSD, ma krytyczne znaczenie dla ekonomicznie uzasadnionego wdrożenia.

Typowe zastosowania SSD to systemy transakcyjne OLTP (OnLine Transaction Processing) oraz farmy serwerów o wysokiej gęstości obsługujące wirtualne komputery PC, czyli systemy VDI (Virtual Desktop Infrastructure).

W tych dwóch środowiskach pamięci masowe są obciążane przez bardzo dużą liczbę względnie małych, rozproszonych operacji odczytu/zapisu danych. Klasyczne dyski z zasady nie są dobrze przystosowane do wydajnej pracy w tego typu systemach. Krótkie, przypadkowo rozmieszczone w różnych obszarach pamięci operacje zapisu/odczytu informacji są charakterystyczne dla systemów OLTP. Większość kontrolerów macierzy dyskowych oraz pamięć podręczna cache zainstalowana w dyskach są praktycznie bezużyteczne i nie radzą sobie z wydajną obsługą takich zadań, powodując, że przepustowość pamięci jest ograniczana przez względnie długi czas wyszukiwania danych (seek time) związany z koniecznością mechanicznego przesuwania głowic dysku.

Standardowym, często stosowanym rozwiązaniem, wykorzystywanym w pamięciach masowych wymagających wysokiej przepustowości, jest instalacja dużej liczby dysków o wysokiej wydajności oraz kontrolerów pozwalających na równoległy zapis/odczyt danych z wielu napędów jednocześnie.

Tego typu rozwiązanie umożliwia zwiększenie przepustowości do wymaganego poziomu, ale czasami oznacza duże marnotrawstwo zasobów. Przykładem może być baza danych o pojemności 1 TB, która powinna obsłużyć 10 000 transakcji na sekundę. Dla uzyskania takiej wydajności trzeba zainstalować około 60 dysków SAS lub FC o prędkości 15 000 obr./min dedykowanych dla tej aplikacji. Przyjmując, że typowa pojemność tego typu dysków to 300 GB, okazuje się, że całkowita pojemność pamięci masowej wynosi 18 TB, a więc 18-krotnie więcej niż jest potrzebne. Mimo to, takie rozwiązania są obecnie standardowo wykorzystywane. A w tym przypadku dyski SSD mogą znaleźć dobrze uzasadnione - również ekonomicznie - zastosowanie.

Jednak wysoka wydajność nie jest jedynym parametrem, który ma wpływ na wybór pamięci masowej. Najczęściej musi ona obsługiwać wiele aplikacji o różnych i zmieniających się wymaganiach, dotyczących szybkości dostępu do danych oraz pojemności pamięci. Dlatego też inwestycja w pamięć masową stosującą tylko dyski SSD, często może być również marnotrawstwem środków finansowych, bo żeby zapewnić wymaganą pojemność na dane, kupuje się jednocześnie wysoką przepustowość, która nie jest dostatecznie wykorzystywana.


TOP 200