Pamięć masowa definiowana programowo to odpowiedź na przyszłe wymagania w centrach danych


Hiperkonwergencja napędza zmiany w centrum danych, a rozwiązania nowej generacji w skali całej infrastruktury określane są jako "definiowane programowo". Dla CIO oznacza to czas "odkrywania innowacji". Według badań Lenovo, osoby odpowiedzialne za strategię IT przyznają, że wiele centrów danych nadal nie dysponuje infrastrukturą niezbędną, żeby sprostać wyzwaniom digitalizacji biznesu i cyfrowej transformacji.

Najbardziej obiecującym modelem poprawy dynamiki i elastyczności serwerów, pamięci masowej i sieci w centrum danych jest koncepcja infrastruktury definiowanej programowo (SDI) - to koncepcja ściśle związana z ideą centrum danych zdefiniowanego programowo (SDDC). W przypadku obiektów, których strategia rozwoju zorientowana jest na SDDC, oczywiste jest, że ostatecznie muszą one zostać poddane totalnej transformacji, żeby możliwe było osiągnięcie oczekiwanego zwrotu z inwestycji. Oznacza to, że każdy aspekt infrastruktury centrum danych - od mocy obliczeniowej i pamięci po sieci i pamięć masową - musi zostać ponownie wyspecyfikowany pod kątem wymagań infrastruktury hiperkonwergentnej, która zagwarantuje wysoką jakość obsługi użytkowników końcowych.

Termin "definiowany programowo" może być mylący biorąc pod uwagę wpływ, jaki ma na sprzęt w centrum danych. Zwłaszcza w odniesieniu do udostępniania rozwiązań pamięci masowej definiowanej programowo (SDS). Chociaż jest to głównie przykład sprzętowy, inną unikalną korzyścią wynikającą z wyboru Lenovo, są technologiczne relacje partnerskie z wiodącymi dostawcami oprogramowania. Ostatecznie chodzi o to, aby produkty mogły być dostarczane w niestandardowej konfiguracji mając na uwadze optymalną wydajność, czyli dokładnie tak, jak w przypadku rozwiązań SDS.

Fundamenty biznesowej pamięci masowej są na nowo kształtowane przez trzy czynniki:

Zbiory danych nadal rosną w postępie geometrycznym. Potrzebne są zatem efektywne sposoby zarządzania tymi ogromnymi ilościami danych, zanim staną się one tak wielkie, że utracona zostanie kontrola nad nimi, co negatywnie wpłynie na biznes. Nie wystarczą nawet najbardziej skalowalne i kosztowne rozwiązania SDS. Według najnowszego badania Interop ITX State of Infrastructure, jednym z największych czynników napędzających zmiany w infrastrukturze IT jest rozwój technologii przechowywania danych i pamięci masowej: 40 procent respondentów wskazało wzrost pamięci masowej / danych jako czynniki, które napędzają najwięcej zmian w ich infrastrukturze informatycznej.

Dane, które generują przedsiębiorstwa i które są im niezbędne, są coraz bardziej nieuporządkowane oraz rozproszone. Systemy pamięci masowej muszą być zaprojektowane w taki sposób, żeby obsłużyć wiele struktur danych, w tym także starszych. W przeciwnym wypadku będą stanowiły hamulec dla sukces biznesowego.

Pojawiające się aplikacje z ogromnym zapotrzebowaniem na moc obliczeniową, niezbędne do rozwoju firmy i utrzymania przewagi nad konkurencją, takie jak analityka danych w czasie rzeczywistym i narzędzia do analizy biznesowej, stawiają wysokie wymagania wszystkim aspektom infrastruktury IT, a nie tylko samym procesorom. Aplikacje te muszą jednocześnie opierać się na danych pochodzących z wielu różnych źródeł. Wiadomo, że wyszukanie i wyodrębnienie danych przechowywanych na różnych platformach może oznaczać dla procesu dodatkowe krytyczne mikrosekundy.

Wpływ wirtualnych infrastruktur

Zarządzanie pamięcią masową długo ewoluowało, znacznie wykraczając poza proste czynności związane z zapewnieniem dostępnych i bezpiecznych miejsc do przechowywania zasobów danych. Teraz pamięć musi być zoptymalizowana pod kątem nowych aplikacji. Stawiają one nieznane wcześniej wymagania w zakresie organizacji i pozyskiwania danych. Technologie takie jak VMware, przykładowo, pozwalają na dynamicznie zarządzanie zasobami zgodnie z obciążeniami organizacji. Dodając do tego SDS, menedżerowie odpowiedzialni za centra danych mogą lepiej organizować pamięć masową, aby spełnić wymagania poszczególnych obciążeń i zaspokoić potrzeby wydajnościowe w środowiskach zwirtualizowanych.

SDS staje się w pewnym sensie standardem - można nawet powiedzieć jest kluczowe - w przypadku rozwiązań VMware vSAN oraz rozwiązań open source, takich jak OpenStack czy Red Hat Ceph Storage. Zastosowanie tych technologii sprawia, że infrastruktury centrum danych są coraz bardziej skalowalne, a przede wszystkim - łatwiejsze do administrowania. SDS zapewnia także bezpośrednią integrację funkcji takich jak tworzenie kopii zapasowych, przywracanie, kompresja oraz scalanie i oczyszczenie danych.

Istnieją jednak dodatkowe czynniki biznesowe, które wzmagają zainteresowanie technologią SDS - świadczy o tym raport firmy DataCore. Wśród nich znajdują się: uproszczone zarządzanie wieloma różnymi produktami pamięci masowej oraz przygotowanie infrastruktury IT na zmiany w przyszłości.

Otwartość na zmiany

SDS rozwiązuje również problem, który dotyka wielu organizacji: silosy pamięci masowej. Segregacja danych i brak łatwego dostępu do nich jest obecnie nie do zaakceptowania w przypadku wielu zaawansowanych aplikacji biznesowych czy wspierających procesy podejmowania decyzji. Silosy pamięci masowej mogą również przyczyniać się do niedostatecznej utylizacji posiadanej pojemności. Oznacza to jednocześnie, że w innych miejscach firmowego systemu pojawiają się dodatkowe wydatki na macierze.

Pamięć masowa definiowana programowo zapewnia bardziej otwarty i kompletny schemat, w którym można zorganizować przestrzeń do przechowywania danych w celu ich bardziej wydajnego współdzielenia w różnych środowiskach i aplikacjach. Zmniejsza to jednocześnie potrzebę zakupu dodatkowej pojemności, co przekłada się na mniejszy CAPEX. Na przykład u jednego z klientów Lenovo, w Federal Hill Solutions, pojemność pamięci jest łączona w pule współdzielone pomiędzy węzłami.

Zarządzanie SDS wyewoluowało w kierunku specjalistycznej dyscypliny technologicznej. Dlatego Lenovo, jako dostawca kompleksowych rozwiązań, współpracuje z liderami oprogramowania, aby dostarczany sprzęt był w chwili zakupu zoptymalizowany pod kątem rozwiązania programowego, jakiego potrzebują klienci. Dlatego też rodzina produktów Lenovo StorSelect DX8200 z procesorami Intel Xeon jest zaprojektowana do współpracy z trzema wiodącymi dostawcami platform SDS - Cloudian (DX8200C), DataCore (DX8200D) i Nexenta (DX8200N) - każde rozwiązanie dostosowane do różnych potrzeb operacyjnych.

Lenovo nie jest nowicjuszem w obszarze technologii definiowanych programowo. W raporcie dotyczącym SDS z 2016 r. starszy analityk ESG, Scott Sinclair, wskazał Lenovo jako lidera w tym sektorze, skoncentrowanego na „konstruowaniu rozwiązań zaprojektowanych specjalnie dla ery definiowanej programowo pamięci masowej ... rozwiązania [firmy] zachowują wiele korzyści oferowanych przez SDS, a jednocześnie automatyzują integrację sprzętową”.

Wybór platform Lenovo StorSelect to jednocześnie inwestycja w przyszłość, czyli coś co można by nazwać „ekonomią pamięci masowej”. Oczywiście, ze względu na to, że zostały one zaprojektowane w celu zwiększenia szybkości, rozwiązania SDS firmy Lenovo w wymierny sposób przyczyniają się do sukcesu biznesowego dzięki poprawie wydajności pamięci masowej.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.