Trendy w świecie pamięci masowych

Pamięci masowe to raczej mało fascynujący temat, ale w ostatnim czasie to właśnie w tym obszarze można było obserwować najbardziej fascynujące nowinki technologiczne. Rzeczywiście, ta branża przechodzi sporą transformację, m.in. za sprawą stopniowej wymiany twardych dysków na znacznie szybsze rozwiązania oraz możliwości korzystania z przestrzeni dyskowej w chmurze.

Ostatnie kilkanaście miesięcy nie było udane dla branży pamięci masowych. W 2013 r. niemal wszyscy wielcy gracze odnotowali spadek przychodów ze sprzedaży macierzy, a globalny rynek skurczył się po raz pierwszy od wielu lat. Wprawdzie szybko rośnie łączna pojemność sprzedanych nośników, ale temu trendowi towarzyszy przeciwstawny, polegający na spadku ceny w przeliczaniu na gigabajt. Nieco lepiej prezentuje się sytuacja w segmencie oprogramowania, w którym nastąpił niewielki wzrost. Powody do zadowolenia mają natomiast dostawcy rozwiązań backupowych, którzy zanotowali przyzwoity wzrost sprzedaży. Co zaskakujące, w tym okresie zadebiutowało na tym rynku aż 57 nowych firm. Pamięci masowe bez wątpienia pozostaną jednym z kluczowych elementów infrastruktury IT, ale coraz rzadziej będą postrzegane jako indywidualny komponent.

Czas na SSD

W 2014 r. rynek w końcu na szerszą skalę ujrzał systemy zbudowane wyłącznie z wykorzystaniem nośników SSD. Ofertę o takie produkty rozszerzyło EMC i pozostali potentaci z branży, jak również wiele nowo powstałych firm. Część już została przejęta przez większą konkurencję (Whiptail kupione przez Cisco, XtremIO przejęte przez EMC), a część zadebiutowała na giełdzie (Fusion-io, Violin Memory). Trzeba dodać, że niektóre z nowych firm mają naprawdę interesujące produkty. Mimo że już ponad 30 firm oferuje systemy all-flash do obsługi krytycznych aplikacji, kolejni nowi producenci będą wchodzić na to zatłoczone poletko. Z pewnością będziemy więc obserwować również dalsze ruchy konsolidacyjne.

Zobacz również:

Zwycięsko ze zmagań wyjdą Ci producenci, którzy będą w stanie dostarczyć klientom odpowiedni dla ich potrzeb poziom wydajności, niezawodności i skalowalności macierzy. Producenci będą musieli rozwijać technologię SSD, aby móc zintegrować te ekstremalnie szybkie urządzenia z tradycyjnymi produktami NAS i SAN. Systemy hybrydowe (SSD razem z HDD) z funkcjonalnością warstw pamięci masowych (tiering) będą kupowane przez klientów potrzebujących macierzy o większych pojemnościach. Wzrost na rynkach międzynarodowych będzie udziałem przede wszystkich największych graczy, którzy są w stanie zapewnić globalnie wsparcie dla swoich produktów.

Prawdopodobnie producenci układów Flash, m.in. Intel, Micron, Samsung, Toshiba i SanDisk ostatecznie zdominują rynek SSD, ponieważ to właśnie te firmy produkują najdroższy komponent tych nośników. Kontroler również jest niezbędnym komponentem, ale jego ceny spadają. Ponadto tak duże firmy mogą zdecydować się na przejęcie mniejszych konkurentów. Potwierdza to przypadek Toshiby, która przejęła OCZ czy SanDiska, który wiele lat temu (w 1996 r.) kupił msystems, następnie Pliant Technology (w 2011 r.), FlashSoft oraz Schooner Information Technology (w 2012 r.), a na koniec SMART Storage Systems (w 2013 r.). Rzadkością jest postawa firmy LSI, która sprzedała większość kontrolerów zakupionych w 2011 r. od Sandforce małemu producentowi SSD (umowa nie obejmowała zasobów umożliwiających zaprojektowanie własnego kontrolera). Dzisiaj mamy stu kilkudziesięciu producentów SSD na świecie. Z pewnością będziemy więc obserwować silną konsolidację czy zamykanie niektórych firm.

MLC wypiera SLC jako podstawową technologię flash. Producenci w ciągu lat poczynili znaczne inwestycje w inne technologie typu non-volatile, aby zastąpić dyski twarde czy nośniki SSD, których możliwości wzrostu pojemności z perspektywy czasu wydają się ograniczone. Na razie jednak marzeniem pozostaje choćby mały udział tej technologii w rynku pamięci masowych. Obecnie najbardziej obiecującą technologią wydaje się MRAM. Jednakże na razie nikomu nie udało się do niej przekonać branży.

Miejsce dla NAS

Ważną role będą odgrywać urządzenia typu NAS. Szczególnie mniejsze modele, które będą wykorzystywane jako alternatywa dla przechowywania prywatnych backupów w chmurze publicznej. Przyczyni się do tego również fakt, że takie firmy, jak Synology czy Thecus dodają do swoich produktów szeroki pakiet oprogramowania, choć dość trudnego w obsłudze. Dokumentacja liczy setki stron i trzeba być specem od IT, aby zrozumieć niektóre akapity. W tym obszarze firmy muszą jeszcze sporo poprawić.

Świetlana przyszłość czeka wszelkie formy redukcji danych. Thin provisioning, kompresja, a przede wszystkim deduplikacja zostały zaadoptowane przez większość producentów i znajdują zastosowanie w kolejnych produktach. Pojawiły się już w systemach służących jako podstawowe miejsce przechowywania danych czy w systemach all-SSD, jak również produktach NAS, rozwiązaniach do backupu oraz rozwiązaniach do budowy chmur, w których umożliwiają ograniczenie obciążenia sieci. Niestety wszystkie algorytmy deduplikacji na razie pozostają zastrzeżone.

Dużego wzrostu zainteresowania klientów należy oczekiwać również w segmencie rozwiązań typu Object-Based Storage. Ponownie, nie jest to nowa koncepcja, ale ostatnio intensywniej promowana przez takie firmy, jak Amplidata, Caringo, Cleversafe, DDN, EMC czy Scality.

Dyski twarde

Największym wydarzeniem w świecie dysków twardych było w ostatnich miesiącach wprowadzenie przez firmę HGST (spółka zależna WD) napędów 3,5 cala o pojemności 6 TB i wypełnionych helem. Oznaczało to wzrost pojemności pojedynczego napędu o 50 % w stosunku do tradycyjnych dysków. Obecnie firma oferuje już drugą generację dysków helowych o maksymalnej pojemności 8 TB. Co istotne, producent zapowiedział, że wkrótce na rynek trafią dyski helowe o pojemności 10 TB, a ich cena w przeliczeniu na 1 GB pojemności ma być najniższa na całym rynku. HGST przekonuje również, że dyski wykonane w tej technologii pobierają o niemal jedną czwartą mniej prądu niż tradycyjne dyski.

Konkurencja też nie próżnowała. Seagate wprowadził już nowe dyski wykonane w tradycyjnej technologii, najpierw o pojemności 5 TB, a następnie modele mieszczące 6 TB danych. Niedawno firma poinformowała też o początkowej dostępności tradycyjnych dysków o pojemności 8 TB.

Globalnie rynek dysków twardych prawdopodobnie ustabilizuje się, aby w z czasem zacząć ustępować miejsca nośnikom SSD, które będą się pojawiać w urządzeniach konsumenckich, np. notebookach. Pod każdym względem nośniki SSD prezentują się lepiej niż dyski twarde. Na razie wyjątek stanowią cena i pojemność, ale różnice w tych dwóch aspektach będą się zacierać na korzyść nośników SSD, które staną się bardziej dostępne. Co więcej, najnowsze nośniki SSD mają już pojemność liczoną w terabajtach. Przykład z trochę innego obszaru. We wrześniu do sprzedaży trafiła karta SD firmy SanDisk o pojemności 512 GB (kosztująca aż 800 dolarów). Przedstawiciele producenta wyjaśnili, że do stworzenia karty o takiej pojemności pchnęło ich przede wszystkim wideo. Technologie takie, jak 4K Ultra HD wymagają bardzo dużej przestrzeni na dane.

Rozwój tych nośników napędzają rosnące woluminy sprzedaży pozwalające producentom chipów osiągać coraz większe korzyści wynikające z rosnącej skali produkcji. Na sprzedaż dysków magnetycznych ma również wpływ rosnąca popularność „dysków” chmurowych, które użytkownicy coraz częściej wykorzystują do przechowywania kopii zapasowych, zamiast używania zewnętrznych napędów. Jednak globalnie pojemność nie sprzedana konsumentom trafia do operatorów chmur.

Nowinka wprowadzona przez Seagate – Kinetic, dysk twardy z interfejsem Ethernet – ma szanse na dobre przyjęcie przez klientów. Widać, że ten produkt jest coraz chętniej wykorzystywany przez producentów OEM i integratorów do przechowywania danych bezpośrednio w sieci bez używania serwera. Możliwe jest również zbudowanie macierzy składającej się z dysków Kinetic. WD do tej pory nie zaproponował konkurencyjnego produktu.

Interfejsy

W świecie komputerów PC trwa batalia o dominację między interfejsami USB 3.0 oraz Thunderbolt. Natomiast widać stopniowe wychodzenie z użycia interfejsów USB 2.0 oraz Firewire. Z kolei w korporacyjnych nośnikach SSD interfejs PCIe jest coraz częściej stosowany niż SAS. Przyczynia się do tego, m.in. grupa robocza NVM Express. W sieciach SAN interfejs 16Gb FC wypiera 8Gb FC. Analogiczny trend obserwowaliśmy kilka lat temu, gdy 8 Gb FC wchodził w miejsce wolniejszego 4 Gb FC. Z kolei InfinityBand 56Gb/s, biorąc pod uwagę drastyczny spadek cen interfejsów 10 GB Ethernet oraz stopniowy wzrost wdrożeń 40GB Ethernet, pozostanie luksusowym interfejsem do systemów takich, jak High Performance Computing. Na placu boju w tym segmencie pozostały już tylko dwie firmy: Mellanox oraz Intel, który przejął QLogic.

W centrach przetwarzania danych coraz częściej stawia się na konwergentną infrastrukturę. Ta wizja zaczęła się urzeczywistniać dopiero w 2013 roku. Organizacja przystąpiły wtedy do wdrożeń Ethernetu obsługującego jednocześnie transmisję danych oraz pamięci masowe. Wdrożenie w całości Ethernetu sprawia, że utrzymanie pojedynczej sieci jest łatwiejsze i bardziej ekonomiczne.

Nawet w istniejących centrach danych, w których wdrożono macierze SAN, ich operatorzy coraz częściej rozważają migrację w kierunku „czystej” sieci Ethernet. Z upływem czasu Fibre Channel będzie coraz bardziej postrzegany jako przestarzała technologia, z uwagi na koszty i złożoność, szczególnie w porównaniu do bardzo skalowalnych i tańszych rozwiązań konwergentnych na bazie Ethernetu. Jednak FC nie zniknie szybko z rynku.

Taśmy znalazły swoje ostatnie zastosowanie, jako tzw. cold storage. Firmy takie, jak Amazon czy Google przechowują na nich ogromne, liczone w petabajtach ilości danych. Dominuje LTO, szczególnie jako nośnik dla aplikacji wideo operujących na dużych plikach zapisywanych w systemie plików LTFS. Niektóre aplikacje korzystają również z dysków optycznych. Jest jednak jasne, że obie technologie nie mają przed sobą wielkiej przyszłości.

Kopie zapasowe

Stworzenie efektywnego systemu kopii zapasowych i przywracania nigdy nie jest łatwym zadaniem. Sukces wdrożenia w dużej części zależy od tego, czy oprogramowanie i sprzęt tworzą zgraną całość. Dlatego kolejni producenci wprowadzają zintegrowane rozwiązania zbudowane z oprogramowania i zoptymalizowanej po jego kątem platformy sprzętowej. Takie zintegrowane rozwiązania, wykorzystywane do konsolidacji w różnych obszarach IT, są prostsze do wdrożenia i zwiększają efektywność operacyjną. Mogą chronić środowiska zarówno środowiska fizyczne, jak i wirtualne. Dla niektórych może to być bardzo istotna cecha, pozwalająca uniknąć wdrażania dwóch systemów backupu. Choć, jak pokazuje praktyka, bardzo wiele firm decyduje się na wdrożenie dedykowanych rozwiązań. Programowe i sprzętowe systemy pamięci masowych przeznaczone do obsługi środowisk wirtualnych pozostają świetnym źródłem przychodów, a niektóre firmy w tym segmencie, jak Veeam specjalizujący się w backupie maszyn wirtualnych, wręcz eksplodowały.

Backup w chmurze

Będziemy nadal obserwować rosnącą liczbę firmę oferujących backup online, mimo stosunkowo wolnych połączeń internetowych i problemów z bezpieczeństwem, które tylko częściowo rozwiązało szyfrowanie. Globalnie liczba podmiotów działających w tym segmencie wynosi kilka tysięcy, a dowolny użytkownik ma dostęp do wszystkich z nich. Firma analityczna ABI Research szacuje, że liczba kont użytkowników korzystających z backup w chmurze przekroczyła miliard, z czego większość klientów korzysta z ograniczonej, ale bezpłatnej oferty. Między dostawcami trwa wielka bitwa, kto zaoferuje większą przestrzeń w ramach bezpłatnego dostępu. Przykładowo, Flickr oferuje w ramach darmowego konta aż 1 terabajt na przechowywanie zdjęć i filmów.

Jednak uwaga, już w 2013 r. miało miejsce kilka upadłości czy zamknięć produktów. Działalność zakończyła firma Nirvanix, Symantec wycofał się z Backup Exec.cloud (użytkownicy mają czas do stycznia 2015 r., aby przenieść swoje dane). Takich zdarzeń będzie więcej, a konsolidacja staje się koniecznością. Nie jest możliwe ustalenie, które firmy czerpią zyski z działalności w tym segmencie, stanowiącym z reguły tylko część ich działalności. Tak jest w przypadku firm hostingowych, które rozszerzyły swoją ofertę o backup online, aby zoptymalizować infrastrukturę IT. Z drugiej strony, wielcy operatorzy chmur – Amazon, Google, Microsoft – do tej pory nie podawali żadnych danych dotyczących zysków z usług przechowywania danych w chmurze.

Kolejnym zastosowaniem backupu w chmurze są scenariusze przywracania danych. Jest to tańsze rozwiązanie, które pozwala obniżyć koszty przechowywania danych poza siedzibą firmy. Coraz więcej użytkowników decyduje się na korzystanie z chmury w modelu hybrydowym, przechowując backup lokalnie oraz w zdalnej lokalizacji, co zwiększa poziom bezpieczeństwa. Jednym z czynników, który napędza ten trend jest ogromna popularność urządzeń mobilnych wykorzystywanych przez pracowników (BYOD).

IT będzie działać jako pośrednik oferujący różne opcje chmurowe i lokalne. Będzie temu towarzyszyć rosnąca potrzeba utrzymania spójnego poziomu usług pamięci masowych w poszczególnych środowiskach: chmurowym i lokalnym. Szerokie wykorzystanie cloud computingu i usług pamięci masowych jest coraz większym wyzwaniem pod kątem geopolitycznym. Szczególnie dla firm międzynarodowych firm, które muszą dbać o zgodność z przepisami różnych krajów w zakresie bezpieczeństwa i przetwarzania danych.

Big Data

Istotny wpływ na rozwój pamięci masowych będzie wywierać analityka Big Data i takie technologie, jak Hadoop, infrastruktura chmurowa typu OpenStack wraz z jej komponentami: Swift (dla obiektów) oraz Cinder (dla bloków). Takie aplikacje wymagają ogromnych przestrzeni dyskowych i obecnie są wdrażane, aby czerpać korzyści z danych pochodzących głównie z mediów społecznościowych. Rozpędzające się wdrożenia analityki Big Data sprawiają, że firmy coraz częściej szukają systemów pamięci masowych, które umożliwią niezawodne, długoterminowe przechowywanie danych, a jednocześnie zapewnią różne zaawansowane mechanizmy, jak georeplikacja. Wraz z wdrażaniem przez korporacje i operatorów chmurowych rozwiązań, które umożliwią im analizowanie dużych zbiorów danych, przyjdzie czas na systemy SDS i nowe przykłady ich zastosowań.

Big Data jest jak śnieżna kula. Im więcej korzyści firmy będą czerpać z analityki posiadanych danych, tym więcej danych będą chciały Pojawią się nowe urządzenia zbierające dane o przyzwyczajeniach konsumentów, procesach przemysłowych czy zjawiskach zachodzących w przyrodzie.

Rewolucja Big Data jest napędzana przez wykładniczy wzrost ilości nieustrukturyzowanych danych. Ilości dostępnych danych jest ogromna, ale naukowcy wciąż mają ograniczone możliwości wydobywania z nich informacji. Większa automatyzacja i narzędzia analityczne umożliwią opanowanie ogromu Big Data i stworzenie elastycznych środowisk dostosowanych do przetwarzania przyrastających woluminów danych. Elastyczność można rozumieć tutaj na różne sposoby. Przykładowo, może to być udostępnianie analityki danych w obrębie środowiska, czy wystawianie zbiorów danych aplikacjom Hadoop bez przenoszenia danych do oddzielnych repozytoriów.

Jeśli Internet Rzeczy (Internet of Things) stanie się rzeczywistością, będą potrzebne jeszcze lepsze sposoby analizowania dużych zbiorów danych. Należy więc spodziewać się znacznego wzrostu popytu na infrastrukturalną część Big Data (serwery, pamięci masowe, sieć). Prognozy przewidują wzrost sprzedaży pamięci masowych o 50 %.

Software Defined Storage

Sporo szumu zrobiło się wokół koncepcji SDS (Software Defined Storage) zakładającej budowanie systemów macierzowych z wykorzystaniem standardowych serwerów x86 zarządzanych przez specjalne oprogramowanie ( (hypervisor). Takie podejście charakteryzuje się możliwością skalowania wszerz, otwartością rozwiązań i niższymi kosztami TCO niż tradycyjne rozwiązania NAS i SAN. W dużej mierze ruch wokół SDS nakręcił marketing, ponieważ takie rozwiązania są na rynku do dawna. Przykładowo, DataCore działa w tym biznesie od 1998 r. i ma ponad 10 tysięcy klientów. Reszta branży dopiero teraz nadrabia zaległości, np. we wrześniu 2013 r. EMC wprowadziło oprogramowanie ViPR.

W dużych środowiskach IT farmy standardowych serwerów x86 będą już wkrótce pracować obok tradycyjnych macierzy dyskowych. Ten trend będzie napędzał zapotrzebowanie na systemy pamięci masowych dostarczane jako rozwiązania programowe, które można uruchamiać właśnie na takich serwerach. W ciągu ostatnich kilku lat firmy oferujące usługi przechowywania danych w chmurze koncentrowały się konkurowaniu coraz niższą ceną w przeliczeniu na gigabajt. Branża zauważyła już, że tego wyścigu nie da się wygrać. Rozwiązania SDS mogą zmienić reguły gry, ponieważ umożliwiają świadczenie różnych usług z wykorzystaniem jednej infrastruktury pamięci masowych.

SDS będzie ewoluować. Obecnie systemy służące do wirtualizacji serwerów, sieci i pamięci masowych funkcjonują oddzielnie. Najbliższe lata przyniosą udoskonalanie koncepcji SDS, niezależnie od technologii pamięci masowych. Udoskonalenia obejmą, m.in. możliwość dostępu z wykorzystaniem różnych paradygmatów. Ten trend zainicjowało kilka lat temu pojawienie się iSCSI, a pamięć masowa działająca pod kontrolą systemu plików może być obecnie postrzegana przez aplikacje jako urządzenia blokowe. Kolejnymi krokami w tej ewolucji było wprowadzenie mechanizmu thin provisioning, w którym system plików jest używany do zarządzania nieprzydzielonymi blokami w danym urządzeniu. W nadchodzących miesiącach powinniśmy obserwować dalsze rozmycie granic pomiędzy różnymi metodami dostępu. Przykładowo, systemy obiektowe umożliwią analizę danych zarządzanych przez protokoły obiektowe (S3, Swift) systemom takim jak Hadoop/HDFS czy dostęp do nich z użyciem narzędzi działających w oparciu o pliki (NFS, CIFS), bez rezultatów dostępnych jako obiekty lub w też w ustrukturyzowanej, tabelarycznej postaci (np. baza danych no-SQL).

Koncepcja SDS przykuwa coraz więcej uwagi ze względu na korzyści, które ze sobą niesie: efektywniejsze wykorzystanie macierzy oraz szybsze dostarczanie ich zasobów. Jednakże centralizacja i automatyzacja zarządzania różnymi typami pamięci masowych to dopiero początek. Oddzielenie (abstrakcja) danych i zarządzania od warstwy fizycznej umożliwia zbudowanie chmury i dostarczanie jej zasobów w bardzo elastyczny sposób. Możliwe staje się również przeprowadzanie nowych operacji na danych. Dostawcy sprzętu już teraz oferują takie możliwości, jak przechowywanie obiektów w systemach plików, a wkrótce na rynek trafią rozwiązania umożliwiające działanie Hadoopa na istniejących pamięciach masowych. Te nowe platformy dadzą możliwość analizowania repozytoriów z danymi z centralnego punktu. Dzięki temu duże firmy czy dostawcy usług będą w stanie integrować aplikacje do analizy danych, co z kolei umożliwi im czerpanie większej wiedzy z tych danych bez konieczności przenoszenia ich na wyspecjalizowane, dedykowane pamięci masowe.

Technologie, które zaczęły się rozpędzać w ostatnich latach, nabierają tempa. Rośnie liczba wdrożeń klastrów pamięci masowych. Infrastruktura konwergentna stała się chętnie wykorzystywanym klockiem do budowania infrastruktury w centrach danych. Wdrożenia obiektowych pamięci masowych są coraz częstsze, ponieważ umożliwiają czerpanie zysków z obiektów danych. Nie można też zapomnieć o dobrym przyjęciu rozwiązań bazodanowych in-memory, jak SAP HANA.


TOP 200