5 kluczowych trendów storage w 2020 r.

Rok 2020 może stać się okresem kolejnych radykalnych zmian w świecie nowych technologii – ze szczególnym uwzględnieniem segmentu storage. Tu innowacje są szczególnie potrzebne, jako że liczba danych, które musimy stale agregować, kategoryzować, przetwarzać i analizować, stale rośnie. Dlatego właśnie tak ważne w przyszłych 12 miesiącach będą trendy i technologie takie jako np. NVMe, pamięć SCM czy zarządzanie danymi pod kątem ich planowanego wykorzystania.

Przez wiele lat innowacje w segmencie rozwiązań do przechowywania danych dotyczyły głównie dwóch aspektów – pojemności nośników i szybkości protokołów komunikacyjnych. Teraz jednak lista priorytetów się zwiększyła a do wymienionych parametrów dołączyły kolejne: elastyczność (łatwość zarządzania) i szeroko rozumiana „inteligencja” – bo dziś wszystko musi być smart.

W 2020 roku zmiany w tej branży mogą być jeszcze większe – i są one bardzo wyczekiwane przez specjalistów i menedżerów IT, którzy poradzić sobie muszą z ogromem danych generowanych przez sztuczną inteligencję, internet rzeczy i wiele innych źródeł. Oto, jakie technologie będą dominować (albo przynajmniej błyskawicznie się popularyzować) w segmencie storage w roku 2020.

Zobacz również:

Storage definiowany programowo

Migrację do SDS (software-defined storage) rozważa coraz więcej firm, skuszonych perspektywami wysokiej automatyzacji, elastyczności, możliwości efektywniejszego wykorzystania posiadanych zasobów i zwiększenia wydajności pracowników.

W SDS mamy do czynienia z odseparowaniem zasobów storage od struktury hardware, na której one bazują. W odróżnieniu od klasycznych systemów bazujących na serwerach NAS czy SAN, SDS zaprojektowany jest z myślą o funkcjonowaniu w oparciu o dowolny zgodny z branżowymi standardami system x86. Firmy, które zdecydują się na wdrożenie tego rozwiązania, mogą liczyć na sprawniejsze dystrybuowanie zadań pomiędzy różnymi elementami systemu storage, efektywne wykorzystanie zasobów i działające w czasie rzeczywistym skalowanie.

SDS zapewnia wysoką mobilność i wirtualizację przestrzeni dyskowej, a także łatwe zarządzanie nią i optymalizację. Jednocześnie jednak wdrożenie tego rozwiązania wymaga zmiany podejścia od działu IT – jego menedżerowie muszą przestać traktować warstwę sprzętową jako kluczowy element firmowego systemu storage a co najwyżej jako wciąż istotny ale jednak tylko jeden komponent większej całości.

Wdrożenie SDS tak, by ta zmiana w minimalnym tylko stopniu zakłóciła pracę organizacji, wymaga przede wszystkim rozsądnej analizy i planowania, a także gruntownej wiedzy o tym, jakie są wymagania i potrzeby firmowych aplikacji i systemów w dziedzinie storage. Potrzebna jest również wnikliwa – i uczciwa – diagnoza możliwości danej firmy w dziedzinie zarządzania środowiskiem SDS. W zależności od tego, jak wypadnie, wybierać możemy spośród kilku różnych scenariuszy wdrożenia tej technologii.

NVMe/NVMe-oF

Pierwsze popularne nośniki danych bazujące na technologii flash podłączane były via SATA czy SAS – czyli tradycyjne interfejsy, zaprojektowane przed laty dla dysków HDD. Protokół NVMe (Non-Volatile Memory express) działający na warstwie Peripheral Component Interconnect express (PCIe) jest zdecydowanie bardziej efektywnym rozwiązaniem, stworzonym właśnie z myślą o szybkich systemach storage flash – tak, by maksymalnie wykorzystać możliwości tej technologii, m.in. dzięki obsłudze komend low-latency oraz zaawansowanego kolejkowania.

Pozwala on nie tylko na osiągnięcie wyższej wydajności i zredukowanie opóźnień dla istniejących już aplikacji i systemów, ale także na wprowadzenie zupełnie nowych funkcji i narzędzi związanych z przetwarzaniem danych w czasie rzeczywistym w nowoczesnych centrach danych. Te możliwości mogą zaś zostać efektywnie wykorzystane przez firmy do osiągnięcia przewagi nad konkurencją. Szczególnie istotne będą one w branżach, w których wykorzystuje się zaawansowaną analitykę w czasie rzeczywistym czy rozwiązania business intelligence.

Co istotne, zastosowania protokołu NVMe nie ograniczają się do obsługi nośników flash – może on również być wykorzystywany jako protokół sieciowy. Pojawienie się technologii NVMe-oF (NVMe over Fabrics) pozwala organizacjom na tworzenie niezwykle wydajnych sieci storage, w których opóźnienia się porównywalne z systemami Direct Attached Storage. Dzięki temu możliwe jest np. dynamiczne współdzielenie urządzeń flash pomiędzy serwerami.

Wspólnie NVMe oraz NVMe-oF stanowią ogromny skok w rozwoju technologii storage, ogromnie przewyższając pod względem wydajności i opóźnień swoich poprzedników, czyli np. protokoły SATA czy SAS.

Na razie ich masową popularyzację hamował nieco brak dojrzałości i niezawodności (w pewnych scenariuszach użytkowania). Eksperci spodziewają się jednak, że dzięki najnowszym postępom technologicznym w dziedzinie NVMe/NVMe-oF, takim jak np. zaprezentowany niedawno protokół NVMe over TCP, w najbliższym czasie będziemy obserwowali masowe wdrażanie tych rozwiązań.

Przetwarzanie danych na poziomie storage

Computional storage to nowe podejście do przetwarzania danych, w którym cześć operacji na danych przeprowadzana jest już na poziomie storage, a nie z wykorzystaniem CPU. Pozwala to m.in. znacząco odciążyć główny procesor – i dlatego właśnie rozwiązanie to coraz bardziej interesuje czołowych graczy z segmentu IT.

Systemy bazujący na sztucznej inteligencji czy internecie rzeczy zwykle bazują na operacjach, polegającym na masowym agregowaniu danych z różnych źródeł, które rozproszone są na całej powierzchni sieci – przesyłanie ich w celu przetworzenia do głównego procesora jest więc zarówno kosztowne, jak i po prostu mało efektywne. Idea computional storage przewiduje wykorzystanie do tego celu wysoko wydajnych nośników SSD, wykorzystywanych w danym systemie.

Technologia ta jest rozwijana od kilku lat i może być wykorzystywana na wiele różnych sposobów – zarówno do wstępnego filtrowania danych na punktach wejścia danego systemu, jak i do ich sortowania przed przekazaniem do bazy danych czy przetwarzania ogromnych zbiorów danych dla potrzeb aplikacji Big Data. Zdaniem wielu ekspertów, rok 2020 będzie okresem jej masowego wdrażania – co jest bezpośrednio związane z popularyzowaniem się NVMe oraz kontenerów (jako, że to te rozwiązania pozwalają na wykorzystanie szybkich nośników flash do przetwarzania danych)

SCM – pamięci klasy magazynu

Masowe wdrażanie pamięci klasy magazynu (storage class memory – SCM) było czymś, co eksperci wieszczyli od lat – wydaje się jednak, że dopiero rok 2020 będzie tym, w którym technologia ta faktycznie się upowszechni. Na rynku są już odpowiednie produkty, w tym Intel Optane, Toshiba XL-Flash czy Samsung Z-SSD. Producenci dopracowali je już na tyle, by można było realnie je wdrażać i w pełni wykorzystać ich możliwości.

A możliwości te są niesamowite. Pamięci SCM są radykalnie szybsze od klasycznych pamięci flash teoretycznie nawet tysiąckrotnie. Jednocześnie zachowują się tak, jak one (tzn. dane nie są tracone po odłączeniu zasilania), oferując jednak znacznie wyższą żywotność. Odpowiednie ich wykorzystanie w systemach storage i aplikacjach będzie oczywiście wymagało kreatywnego podejścia i opracowania nowych scenariuszy… ale gdy to już nastąpi, korzyści z tego mogą być ogromne.

Na razie największe postępy w tej technologii poczynił Intel – do tego stopnia, że firmy, które w najbliższym czasie zamierzają wdrażać SCM, de facto skazane są na korzystanie z najnowszych procesorów firmy (serii Cascade Lake). Wydaje się jednak, że korzyści z tych wdrożeń mogą być tak ogromne, że potencjalnym użytkownikom konieczność ograniczenia się do rozwiązań tylko jednego dostawcy nie będzie szczególnie przeszkadzała.

„Intencjonalne” zarządzanie storage

Intent-based storage management – czyli tworzenie i zarządzanie systemami storage pod kątem ich zastosowania – jest kolejną innowacją z tej dziedziny, która w roku 2020 może szybko zdobywać popularność. Pozwala ona znacznie usprawnić projektowanie, tworzenie, wdrażanie i wykorzystywanie systemów storage, szczególnie tych krytycznych dla funkcjonowania danej organizacji.

Rozwiązanie to działa podobnie jak znane od kilku lat w świecie sieci „intent-based” – chodzi o projektowanie systemów tak, by spełniały one pewne, ściśle określone przez użytkownika, wymagania. Może to być ogromna pojemność, wysoka wydajność… cokolwiek, co dla danego użytkownika i w danym zastosowaniu będzie priorytetem. Projektowanie całego systemu pod tym kątem pozwala na spełnienie tych wymagań, przy jednoczesnym zachowaniu wysokiej skalowalności całego systemu, zapewnieniu jego „zwinności” i ograniczeniu potencjalnych problemów technicznych.

Korzyści z wdrożenia tej technologii widoczne są także później podczas użytkowania tak zbudowanego systemu – operatorzy infrastruktury mogą łatwo zarządzać swoimi zasobami, odpowiednio przydzielając je w razie potrzeby aplikacjom i użytkownikom. Dzięki wysokiemu stopniowi zautomatyzowania procesu zarządzania zasobami oraz mechanizmom bazującym na sztucznej inteligencji, zasoby storage są też stale optymalizowane, tak by nawet w zmieniającym się środowisku wciąż spełniały kryteria określone podczas tworzenia całego systemu.

Przeprowadzanie takich wdrożeń możliwe jest dzięki całemu zestawowi nowych technologii z dziedziny storage – od narzędzi do automatycznego ich wdrażania, po zaawansowaną telemetrię i analitykę, aż po storage definiowany programowo (SDS). Warto jednak pamiętać, że sam proces takich wdrożeń jest dość skomplikowany i nie w przypadku każdego zastosowania skórka jest warta wyprawki. W przypadku aplikacji, w których tak wysoki stopień dopasowania systemu storage do ich potrzeb nie jest niezbędny, problemy związane z wdrażaniem „intencjonalnego” zarządzania storage mogą być większe, niż ewentualne wynikające z tego korzyści (szczególnie na bieżącym etapie rozwoju tej technologii).


TOP 200