Nowe myślenie w centrum danych


Tikiri Wanduragala, starszy konsultant odpowiedzialny za systemy serwerowe x86 w Lenovo EMEA, podsumowuje zmiany w centrach danych związane z technologiami software-defined oraz pisze, co to oznacza dla Lenovo, klientów oraz – szerzej – dla branży.

Moim celem jest przedstawienie w jednym miejscu kilku kluczowych idei, które zdobyły w ostatnim czasie ogromną popularność. Spoglądając wstecz na kilka ostatnich miesięcy, jasne jest bowiem, że to, co obecnie znajduje się w centrum uwagi, ostatecznie może okazać się nieistotne. Grupa biznesowa Lenovo, której jestem częścią, nazywa się obecnie Data Centre Group (DCG). Wcześniejsza nazwa to Enterprise Business Group (EBG). Powodem zmiany nazwy była zmiana naszych strategicznych kierunków rozwoju oraz ogromne zmiany zachodzące obecnie na rynku.

Co się zmienia?

Klienci muszą dzisiaj zmagać się z eksplozją danych oraz informacji niezbędnych do prowadzenia biznesu. Przy tym muszą się z tym mierzyć przy stałych lub zmniejszających się budżetach i stałych zasobach ludzkich oraz niezmieniającym się zestawie umiejętności. W takich warunkach makroekonomicznych musimy działać.

W tym samym czasie na rynek trafia wiele nowych technologii, które potencjalnie mogą wywrzeć ogromny wpływ. Przykładem mogą być technologie działające na skalę internetową (web-scale), np. Amazon, eBay, Google czy Facebook. Mogą one zaadresować niektóre problemy ich klientów z danymi lub – mówiąc bardziej szczegółowo – wymagania pojemnościowe Big Data.

Ponadto, SSD oraz Flash są coraz bardziej dostępne. Połączenie tych dwóch – web-scale i Flash – pozwala budować technologie, które określamy definiowanymi programowo (software-defined). W efekcie, przesuwa to zarządzanie i udostępnianie zasobów do aplikacji. Ludzie uważają te technologie za następną “wielką zmianę w IT”.

Niemniej jest inny problem. To nowość, dlatego klienci muszą przeszkolić załogę i pozyskać nowe kompetencje. Największy problem to jednak wyeliminowanie silosów. To fuzja obciążeń (albo aplikacji), sieci, pamięci masowej i serwerów.

Zamiast zastanawiać się nad serwerami, sieciami itd., klienci teraz myślą o centrach danych jako całości, jako o centrum ich organizacji. Oto, co doprowadziło do zmiany nazwy: najwyższy czas, żeby zapomnieć o serwerach i skoncentrować się na elementach w obrębie centrum danych oraz wszystkim, co się z tym wiąże.

Rola Lenovo

Mamy ogromne doświadczenie w najważniejszym obszarze – serwerach – mamy również referencje w zakresie budowania wysokiej jakości maszyn. Co istotne, mamy także doświadczenia w dwóch innych obszarach, które podlegają obecnie ogromnym przemianom – sieciach i pamięciach masowych.

Wielu nowych graczy wchodzi na rynek sieci i pamięci masowej definiowanej programowo. Przy tym element o fundamentalnym znaczeniu dla centrów danych wyewoluował – z podsystemów (sieci, pamięci masowej itp.) oraz tego, co w nich się znajduje do serwera.

W taki sposób patrzą na to wielkie firmy internetowe – zapomnijmy o detalach i używajmy serwer jako standardowy element w centrum danych. Podobnie, to – ze względu na naszą historię i doświadczenie - dobra wiadomość dla nas.

Tego nowego typu centrów danych nie zbuduje jeden gracz. Ponieważ my koncentrujemy się na infrastrukturze, a wiele z tych innowacji ma miejsce w obszarze oprogramowania, jesteśmy przygotowani na bezkonfliktową partnerską współpracę z nowymi graczami. Brak obszarów potencjalnego konfliktu oznacza także lepszą integrację i możliwość szybszego wprowadzenia produktów na rynek. Przykładem takich działań są partnerstwa Lenovo z Nutanix i Cloudian.

Dla klientów oznacza to, że teraz możliwe jest znaczące ograniczenie przestrzeni fizycznej zajmowanej przez centrum danych oraz liczby maszyn w nim się znajdujących. Struktura zarządzania pochodzi z wielkich firm internetowych, które są wykorzystywane do zarządzania bardzo dużą liczbą serwerów przez niewielki zespół ludzki. W dalszej kolejności wchodzi wysoki poziom automatyzacji i orkiestracji, co wpływa na wydatki operacyjne oraz kapitałowe.

Horyzont czasowy

Kiedy rozmawiam z ludźmi o nowych technologiach, często spotykam się z jednym pytaniem: ile czasu potrzeba, żeby się spopularyzowały? Cóż, nie ma na to prostej odpowiedzi, ale możemy wykorzystać jako przykład wirtualizację.

Zacząłem pracować z technologiami wirtualizacyjnymi ok. 2001 r. Spotykałem się z wieloma negatywnymi reakcjami. Były stosunkowo nowe i ludzie tego nie rozumieli – typowy problem nowej technologii. Nagle zaczęła być coraz bardziej popularna – stosowano ją w środowiskach, które nie stanowiły wielkiego ryzyka, ponieważ ludzie dostrzegali korzyść w ograniczeniu liczby serwerów.

Pomiędzy 2000 i 2005 r. produkt ewoluował i zmieniło się podejście klientów. Od tego momentu do 2008 r., technologia została zaakceptowana, a obecnie jest normą. Zatem technologie definiowane programowo są w pewnym sensie podobne, ponieważ mówimy o wirtualizacji całej sieci, pamięci masowej i serwerów jako jednego elementu, ale następnie powinno to podążać podobną ścieżką – tylko z jednym wbudowanym akceleratorem. Obecnie mamy wiedzę i rozumiemy, na czym polega wirtualizacja, jej korzyści i jak ona działa.

Ta nowa technologia ma ogromny potencjał. Jej obietnica – mówiąc szczerze – jest wręcz niewiarygodna. Nawet jeśli tylko 20% tego potencjału zostanie zrealizowane, będzie fenomenalnie. Musi być, ponieważ problem jest ogromny. W przypadku dużych firm internetowych mówimy o miliardach użytkowników. A firmy te, zrodzone w internecie, wytworzyły nowy sposób myślenia o nim.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.