Centrum danych definiowane programowo – odpowiedź na wyzwania hybrydyzacji IT


Jeśli do wykorzystywanych wcześniej tradycyjnych systemów dodamy chmurę, otrzymamy infrastrukturę IT przypominającą patchwork, składającą się z różnorodnych elementów, które czasem są trudne do zarządzania w jednorodny sposób. Chociaż definiowane programowo sieci i pamięci masowe pozwoliły rozwiązać część problemów, to migracja do definiowanego programowo centrum danych pozwala uprościć infrastrukturę i wejść zupełnie na nowy poziom.

Dzięki cloud computingowi, który zapewnia nowy sposób budowania infrastruktury obliczeniowej, współczesne rozwiązania IT mają zwykle hybrydowy charakter. Mimo że wiele firm korzysta z chmury w modelu SaaS, PaaS czy IaaS, tylko nieznaczna część przeniosła do niej wszystkie swoje systemy IT – zarówno ze względów praktycznych, jak i bezpieczeństwa. Dużo przedsiębiorstw postawiło natomiast na infrastrukturę hybrydową, łączącą tradycyjne rozwiązania zlokalizowane we własnym centrum danych, chmurę publiczną oraz prywatną.

Na dostawcach IT spoczywa obowiązek wspierania użytkowników stawiających na takie podejście. „Musimy umożliwić klientom wybór kształtu ich infrastruktury IT. Nie zamierzamy tworzyć rozwiązań tylko dlatego, że wydaje się nam, iż są dobre – powinny zaspokajać potrzeby klientów” - wyjaśnia Nicolas Mahé, szef produktów serwerowych w Lenovo France.

Ponadto, zastosowania infrastruktury są zróżnicowane. Przykładowo, internetowe serwisy zajmujące się handlem elektronicznym używają chmury publicznej jako rozwiązania do okresowej obsługi szczytowych obciążeń. W szczególności w ten sposób korzysta z chmury francuska kolej SNCF. Jedna z jej spółek zależnych, VSCT, ma konwencjonalne centrum danych połączone z infrastrukturą IaaS obsługiwaną przez OVH – tam właśnie przenoszone jest przetwarzanie, kiedy pojawiają się szczytowe obciążenia.

Inne organizacje wykorzystują publiczną chmurę do ekspansji międzynarodowej. Internetowy detalista, firma Cdiscount, która choć zawsze w pełni kontrolowała swoją infrastrukturę, w przypadku wchodzenia na nowe rynki, gdzie rolę odgrywa szybkość działania, polega na technologiach Microsoft Azure. Dopiero w późniejszym okresie przenosi swoje systemy informatyczne ponownie na własną infrastrukturę.

SDN i SDS stają się niezastąpione

Pomimo różnic w tych podejściach, wszystkie charakteryzują się potrzebą zachowania – przy kontroli kosztów - pełnej spójności wszystkich elementów. Znacznie ułatwia to zastosowanie definiowanych programowo sieci (SDN) oraz pamięci masowych (SDS).

Przykładowo, technologie takie jak VMware NSX zarządzają zasobami dynamicznie, odpowiednio do posiadanych przez organizację obciążeń. Menedżerowie IT są w stanie przenosić maszyny wirtualne – w celu zapewnienia ciągłości świadczonych usług - w ramach fizycznej infrastruktury zlokalizowanej w ich centrach danych lub infrastruktury hostowanej.

Co więcej, dzięki SDS mogą tak organizować pamięć masową, żeby spełniała wymagania wydajnościowe oraz specyficzne potrzeby stawiane przez poszczególne obciążenia. W zależności od wartości danych oraz ich sposobu użycia, te zwirtualizowane rozwiązania są w stanie definiować pamięć masową w czasie rzeczywistym. Przy tym nie ma znaczenia, czy znajduje się ona w publicznej czy prywatnej chmurze, czy też w macierzach konwencjonalnych albo flash, czy na jeszcze innych systemach.

Systemy hiperkonwergentne oferują te zróżnicowane funkcje bezpośrednio. Przy tym potrafią harmonizować użycie zasobów z jednego punktu. Ostatecznym celem, według Gillesa de Richemonda, dyrektora generalnego VSCT, jest jednak stworzenie definiowanego programowo centrum danych (SDDC), w którym każdy zasób infrastrukturalny jest zwirtualizowany. To sprawia, że wymagania użytkowników mogą być spełniane błyskawicznie. Obecnie, dzięki rozwiązaniu VMware Evo: Rail OEM oraz Lenovo stworzenie zarządzanego programowo centrum danych jest możliwe w zaledwie kilka czy kilkanaście godzin.

Zarządzanie hybrydyzacją staje się zagadnieniem także w przypadku tradycyjnej infrastruktury. Nie można pominąć faktu, że działy IT zmuszone są do uporania się ze starszymi, wykorzystywanymi od lat systemami.

Niektóre firmy, tak jak PMU czy Darty, starają się migrować swoje aplikacje z mainframe’a do działających pod kontrolą Linuksa systemów x86, które są tańsze i łatwiejsze w utrzymaniu. Choć większość firm stawia dzisiaj na x86, niektórzy dostawcy, np. Lenovo w przypadku systemów NeXtScale, starają się popularyzować bardziej efektywne energetycznie układy ARM.

Bez uproszczenia nie będzie hybrydyzacji

Obecnie nie należy już pytać, czy system IT powinien zostać zhybrydyzowany. Zamiast tego, trzeba zastanowić się, jaki jest najlepszy sposób zarządzania hybrydą, na którą składają się publiczne i prywatne chmury, tradycyjne systemy we własnych serwerowniach, mainframe’y oraz inne technologie.

Dlatego SDS stają się kluczowe z punktu widzenia zarówno pamięci masowej, jak i sieci. Ideałem jest centrum danych, w całości zarządzane z poziomu oprogramowania. Zastosowanie koncepcji SDDC to gwarancja pełnej skalowalności dla infrastruktury łączącej systemy tradycyjne oraz publiczną i prywatną chmurę, a także – co najważniejsze – łatwiejsze zarządzanie. „Nasz rola to również edukowanie klientów, żeby pomagać im osiągać maksymalne korzyści z zastosowania tych rozwiązań” – mówi Nicolas Mahé.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.