Jak zmienia się infrastruktura centrów danych

Postęp technologiczny w rozwoju serwerów, pamięci i sieci zmienia nie tylko infrastrukturę centrów danych, ale również koncepcje jego architektury. Prezentujemy jakie są obecnie najważniejsze trendy w rozwoju technologii i koncepcji architektury ośrodków przetwarzania danych.

„Centra danych podlegają znaczącej transformacji i ośrodki przetwarzania danych, które zaczną się pojawiać w niedalekiej przyszłości będą wyglądały zupełnie inaczej niż te, które znamy obecnie” – twierdzi Zeus Kerravala, analityk w firmie ZK Research.

Wynika to przede wszystkim z przewidywanych kierunków rozwoju firm, które muszą się zmieniać, by sprostać wymaganiom rynku. Ponieważ systemy IT są ważnym elementem biznesu, rosną oczekiwania, by one również mogły być elastycznie dopasowywane do bieżącego zapotrzebowania i dynamicznie skalowane.

Zobacz również:

Jednocześnie technologiczne zmiany w jednym segmencie wpływają na konieczność modyfikacji również innych elementów infrastruktury. Na przykład popularyzacja wirtualizacji serwerów spowodowała, że szybciej rosną wymagania dotyczące przepustowości lokalnych połączeń sieciowych (East-West) w porównaniu do połączeń zewnętrznych (North-South), których wydajność była kluczowa dla efektywnej obsługi ruchu sieciowego generowanego w tradycyjnym modelu klient–serwer.

Prezentujemy kluczowe technologie, które będą powodować ewolucję centrów danych i odchodzenie od względnie statycznych fizycznych ośrodków do elastycznej, płynnej infrastruktury spełniającej wymagania cyfrowej transformacji biznesu.

Główne elementy centrum danych

Centrum danych to fizyczny ośrodek, który umożliwia uruchamianie aplikacji o krytycznym znaczeniu dla biznesu i przechowywanie ważnych danych. Rozwój technologii związanych z systemami IT wpływa na ewolucję centrów przetwarzania danych, ale jej podstawowe, ogólne kierunki to zwiększanie niezawodności działania infrastruktury i zapewnienie wysokiego poziomu jej bezpieczeństwa. Główne czynniki centrum danych to routery, przełączniki, serwery, pamięci masowe i urządzenia mające zapewnić bezpieczeństwo.

Zapotrzebowanie na pamięć o wysokiej wydajności generują głównie aplikacje wykorzystujące sztuczną inteligencję, uczenie maszynowe, przetwarzanie wideo lub oprogramowanie analityczne. Jeszcze kilka lat temu były to niszowe aplikacje, a obecnie zaczynają być coraz szerzej stosowane.

Każde centrum przetwarzania danych wymaga też zestawu dodatkowych elementów niezbędnych do połączenia i zbudowania działającej infrastruktury, należą do nich: okablowanie, szafy stelażowe, systemy chłodzenia i zasilania, kontrolery aplikacji itd. Dopiero ich połączenie w jeden system tworzy infrastrukturę, która powinna zapewnić niezawodne, efektywne i bezpieczne działanie krytycznych dla firmy aplikacji. Elementy te są w cieniu serwerów, pamięci masowych, routerów i przełączników, ale mają duże znaczenie dla sprawnego działania systemu. W ich przypadku trudno mówić o spektakularnych nowościach, bo najważniejsze jest spełnienie wymagań istniejących standardów szczegółowo definiujących parametry. Producenci najczęściej chwalą się to ułatwieniami związanymi z montażem i niezawodnością pracy takich elementów.

Na kierunki ewolucji centrów danych wpływa rozwój względnie nowych technologii, które zdaniem specjalistów już obecnie zyskują popularność lub zaczną znajdować masowe zastosowania w najbliższej przyszłości.

Standardy architektury centrów danych

Architektura centrum danych jest inna w przypadku każdej firmy, a liczba opcji w procesie projektowania infrastruktury praktycznie nieograniczona. Dlatego też planowanie, jak ma wyglądać tworzony system, wymaga podjęcia wielu trudnych decyzji. Podstawowe, ogólne, ale mające duży wpływ na szczegółowy projekt pytania, na jakie trzeba odpowiedzieć, brzmią:

• Czy wymagania biznesowe powodują, że niezbędne jest wykorzystanie dwóch bliźniaczych centrów danych zapewniających równoległe przetwarzanie?

• Jaki obszar mają te centra obsługiwać i czy ma uzasadnienie geograficzne rozproszenie infrastruktury?

• Jaki jest wymagany czas odtworzenia systemu i przywrócenia go do normalnego działania po poważnej awarii?

• Jakie są plany dotyczące przewidywanego rozwoju centrum danych i skalowania mocy przetwarzania oraz pamięci masowej?

• Czy niezbędna jest budowa własnego ośrodka, a może warto skorzystać z usług kolokacyjnych lub systemów chmurowych?

• Jakie są wymagania na przepustowość łączy zewnętrznych i preferowany dostawca usług internetowych?

• Jakie są wymagania na moc zasilania i czy można zapewnić odpowiedni i ekonomicznie efektywny poziom dostaw energii?

• Jakie są wymagania dotyczące fizycznego bezpieczeństwa centrum danych?

Standardy definiujące wymagania dotyczące różnego rodzaju centrów danych zostały opracowane i opublikowane przez organizacje ANSI (American National Standards Institute) oraz TIA (Telecommunications Industry Association). Definują one cztery podstawowe kategorie centrów przetwarzania danych. Pierwsza dotyczy podstawowej infrastruktury znajdującej zastosowanie w małych firmach (pokój serwerowy), a czwarta, centrum danych spełniającego najwyższe wymagania dotyczące niezawodności i bezpieczeństwa. Standardy te zostały opracowane już w 2005 r., ale ich ogólny charakter powoduje, że wciąż są dobrą rekomendacją dla osób projektujących infrastrukturę centrów danych. Szczegółowe informacje na ten temat można znaleźć na stronie TIA-942.org: http://www.tia-942.org/content/162/289/About_Data_Centers

Systemy sieciowe SDN (Software-Defined Networking)

Każdy system jest tak elastyczny i skalowalny, jak jego najmniej elastyczny element. Takim elementem był dotąd najczęściej system sieciowy. Pojawienie się technologii SDN zmieniło sytuację. Możliwość programowego sterowania funkcjami i parametrami urządzeń sieciowych pozwala na dynamiczną i w znacznym stopniu zautomatyzowaną modyfikację działania sieci, co do niedawna było nieosiągalne.

Można oczekiwać, że SDN już wkrótce stanie się standardową technologią sieciową wykorzystywaną w centrach danych.

Systemy hiperkonwergentne

Budowa centrum danych wymaga dobrego zaplanowania i wdrożenia odpowiedniej liczby serwerów, pamięci masowych i urządzeń sieciowych, by system mógł efektywnie obsługiwać wykorzystywane aplikacje. Ale nawet najlepszy projekt nie może uwzględnić wszystkich zmian wymagań, które będą się pojawiać już w najbliższej przyszłości, dlatego pracownicy działu IT muszą zadbać, by dodawanie nowych urządzeń lub węzłów systemu nie spowodowało zakłóceń w działaniu aplikacji.

Systemy hiperkonwergentne (HCI, Hyper Converged Infrastructure) są tak projektowane, by można je było nie tylko łatwo wdrożyć, ale i łatwo skalować, oczywiście w przewidzianych granicach. Pierwsze modele systemów HCI były najczęściej wykorzystywane do wirtualizacji desktopów, ale obecnie ich zastosowania znacznie się rozszerzają, m.in. na obsługę systemów zunifikowanej komunikacji lub baz danych.

Kontenery dla aplikacji

Kontenery to jeszcze względnie nowa technologia, ale jej zalety, możliwość zwiększenia efektywności i optymalizacji infrastruktury centrów danych sprawdzają się w praktyce – uważa Gary Chen, analityk z IDC. „Kontenery będą miały duży wpływ na modyfikację stosu oprogramowania w centrach danych, w tym na wirtualizację. Choć nie zastąpią technologii wirtualizacyjnych, to znacząco zmienią rolę hyperwizorów w systemach IT” – przewiduje Gary Chen.

Kontenery umożliwiają wirtualizację całego środowiska funkcjonującej w nim aplikacji w wyizolowanym systemie. Ponieważ kontenery można szybko tworzyć i szybko usuwać, są one idealnym rozwiązaniem do testowania działania tworzonych aplikacji, a także umożliwiają szybkie i łatwe ich przenoszenie w systemie.

Dla programistów jedną z ważnych zalet aplikacji uruchamianych w kontenerach jest możliwość ich przygotowania na komputerze osobistym, a następnie uruchomienia na serwerze. Kontener zawierający aplikację bez modyfikacji może być przenoszony w systemie, a wszystkie zależności wpływające na jej działanie pozostają nienaruszone. Kontenery ułatwiają też tworzenie aplikacji mikrousługowych, które wykorzystują zestawy innych, niezależnych usług dostępnych w systemie.

Większość kontenerów wykorzystuje Linux, ale obsługa tej technologii została wprowadzona także przez Microsoft w systemie Windows Server 2016. Oznacza to, że również na tej platformie można tworzyć i uruchamiać skonteneryzowane aplikacje.

Mikrosegmentacja w centrum danych

W tradycyjnych centrach danych systemy zapewniające bezpieczeństwo były z reguły umieszczane na brzegu sieci i kontrolowały ruch przychodzący i wychodzący z systemu (North-South). Wzrost wewnętrznej wymiany danych (East-West), która omija kontrolę wykonywaną przez zapory sieciowe, systemy IPS (wykrywanie włamań) i inne mechanizmy zabezpieczeń, powoduje, że szkodliwe kody przenikające do systemu mogą się w nim bardzo szybko rozprzestrzenić.

Metodą na ograniczenie skutków udanych włamań jest mikrosegmentacja, czyli podzielnie zasobów centrum danych na wzajemnie odizolowane obszary. Mikrosegmentacja jest najczęściej realizowana przez oprogramowanie, co powoduje, że jest to metoda elastyczna.

Segmentacja sieci nie jest pomysłem nowym. Sieci VLAN (Virtual Local Area Networks) są wykorzystywane od dawna, ale w systemach o dużej skali utworzenie dostatecznej liczby VLAN jest w praktyce trudne, a nawet niemożliwe. Dochodzą do tego problemy z infrastrukturą IT, która wymaga zabezpieczenia połączeń między różnymi podłączonymi do sieci urządzeniami oraz zapewnienia ich niezawodnego działania. Dlatego właśnie logicznym posunięciem jest wdrożenie mikrosegmentacji. Jeśli jakiś element systemu zostanie skutecznie zaatakowany, mechanizmy zabezpieczeń zapobiegają, by stał się on przekaźnikiem umożliwiającym propagację szkodliwego kodu w sieci i aktywują procesy izolacji i eliminacji zagrożenia. Przykładem oprogramowania umożliwiającego realizację mikrosegmentacji sieci jest najnowsza wersja Cisco TrustSec 6.1, które umożliwia programowe zdefiniowanie elementów sieci i zapobieganie propagacji zagrożeń.

Pamięci Flash i protokół NVMe zamiast dysków magnetycznych

Klasyczne protokoły SCSI i ATA, które przez dziesiątki lat obsługiwały wymianę danych między serwerami i pamięciami masowymi, dotarły do granicy swoich możliwości. Obecnie są zastępowane przez nowy protokół NVMe, który zapewnia istotne zwiększenie wydajności w systemach wykorzystujących pamięci Flash.

Dynamicznie rozwijające się technologie i nowe rodzaje aplikacji powodują, że systemy pamięci masowych oparte na klasycznych dyskach magnetycznych stają się coraz częściej wąskim gardłem hamującym wydajność systemów IT. W efekcie systemy wykorzystujące pamięci półprzewodnikowe Flash zaczną stopniowo zyskiwać masową popularność.

Zapotrzebowanie na pamięć o wysokiej wydajności generują głównie aplikacje wykorzystujące sztuczną inteligencję, uczenie maszynowe, przetwarzanie wideo lub oprogramowanie analityczne. Jeszcze kilka lat temu były to niszowe aplikacje, a obecnie zaczynają być coraz szerzej stosowane.

Klasyczne systemy pamięci masowych zaprojektowane do obsługi dysków magnetycznych nie są w stanie zapewnić wydajności, jaką udostępniają pamięci Flash. Ale w przypadku standardowych aplikacji, takich jak bazy danych, oprogramowanie ERP itp., ich zastosowanie umożliwia osiągnięcie jeszcze innych korzyści. W przypadku baz danych wykorzystujących pamięć dyskową, by zapewnić wysoką wydajność, tworzonych jest wiele kopii danych dla różnych użytkowników, systemów analitycznych itd. Pamięci Flash umożliwiają konsolidację (deduplikację) zasobów, co zmniejsza wymagania na dostępną pojemność pamięci.

Jednocześnie ceny pamięci Flash będą systematycznie spadały. „W ciągu trzech lat o ok. 50%, a za sześć lat nawet o 75%” – prognozuje Charlie Giancarlo, CEO w firmie Pure Storage. Producenci zdają sobie z tego sprawę, dlatego zaczynają ograniczać środki finansowe przeznaczane na rozwój technologii dysków HDD i w efekcie obserwowany od 40 lat systematyczny spadek cen pamięci dyskowych zostanie zahamowany. „Logarytmiczna krzywa prezentująca zmniejszający się stosunek ceny do wydajności pamięci dyskowych nie wynika z praw fizyki, a z wielkości inwestycji w rozwój technologii” – mówi Charlie Giancarlo.

Procesory graficzne zyskują na znaczeniu

Wykorzystywane przez lata procesory CPU (Central Processing Units) zbliżają się do granic fizycznych możliwości i coraz trudniej im spełnić rosnące wymagania na moc przetwarzania stawiane przez aplikacje analityczne, uczenie maszynowe, systemy IoT. Nie oznacza to, że rozwój układów CPU został już zatrzymany. W dalszym ciągu pojawiają się na rynku nowe generacje takich układów, czego przykładem są procesory serwerowe zaprezentowane niedawno przez Intela i AMD.

AMD wprowadził w czerwcu 2017 r. procesory Epyc. Są to serwerowe układy bazujące na firmowej architekturze Zen, która u przedstawicieli producenta może przełamać monopolistyczną pozycję Intela w tym segmencie rynku. Epyc mają do 32 rdzeni CPU, osiem kanałów obsługi pamięci DDR4 DRAM (2666 MHz) i mogą być instalowane w serwerach jedno- lub dwuprocesorowych.

W kilka tygodni później, w lipcu 2017 r., Intel zaprezentował nową rodzinę serwerowych procesorów Intel Xeon Scalable. Układy mają nową, ulepszoną architekturę wykorzystującą nowe rozwiązanie do komunikacji między rdzeniami i kontroler pamięci. Mogą zawierać maksymalnie 28 rdzeni i 6 TB pamięci operacyjnej, a opcje skalowania obejmują systemy od dwóch do ośmiu procesorów. Według Intel anowe procesory zapewniają wzrost wydajności o 65% w porównaniu z poprzednią generacją oraz 5-krotny wzrost liczby obciążeń związanych z przetwarzaniem OLTP w hurtowniach danych.

Na zasadnicze zwiększenie wydajności przetwarzania danych wpływ może mieć nowy model obliczeniowy wykorzystujący procesory graficzne GPU. Przed laty układy takie wykorzystywane były głównie do zwiększania jakości wyświetlanej grafiki, zwłaszcza w przypadku gier komputerowych. Obecnie coraz częściej pojawiają się one w serwerach jako układy realizujące niektóre zadania znacznie szybciej i efektywniej niż procesory CPU. Takie modele sprzętu mają już w ofercie chyba wszyscy znani producenci.

Działanie GPU różni się zasadniczo od CPU. Procesory graficzne mogą równolegle przetwarzać bardzo dużą liczbę wątków obliczeniowych i w wielu zadaniach są znacznie bardziej efektywne. Obecnie znajdują one zastosowanie w niektórych najpotężniejszych superkomputerach notowanych na liście TOP500. Można oczekiwać, że już w niezbyt odległej przyszłości układy GPU staną się standardowym elementem również w centrach danych.

Działanie GPU różni się zasadniczo od CPU. Procesory graficzne mogą równolegle przetwarzać bardzo dużą liczbę wątków obliczeniowych i w wielu zadaniach są znacznie bardziej efektywne. Obecnie znajdują zastosowanie w niektórych najpotężniejszych superkomputerach. Można oczekiwać, że niedługo układy GPU staną się standardowym elementem również w centrach danych.

Sztuczna inteligencja wkracza do centrów danych

Ostatnio pojawiają się koncepcje tzw. autonomicznego centrum przetwarzania danych, które wykorzystując mechanizmy sztucznej inteligencji, pozwala na automatyzację procesów związanych z zarządzaniem infrastrukturą i funkcjonowaniem systemu IT. Jest to technologia znajdująca się w początkowej fazie rozwoju, ale w najbliższych latach może mieć duży wpływ na to, jak będą wyglądać centra danych nowej generacji. Prezentujemy kilka przykładów, jak koncepcje te są postrzegane przez różnych producentów i jakie produkty już wprowadzają oni do oferty.

HPE zapowiedziało rozszerzenie funkcji oprogramowania do predykcyjnej analityki InfoSight (technologii opracowanej przez firmę Nimble Software przejętej przez HPE w kwietniu 2017 r.) o dodatkowe mechanizmy wykorzystujące sztuczną inteligencję (AI). Według HPE jest to pierwszy krok w kierunku stworzenia tzw. autonomicznego centrum danych, które będzie mogło automatycznie modyfikować swoją konfigurację w celu uzyskania maksymalnej możliwej efektywności.

Firma zapowiada dalszy rozwój oprogramowania InfoSight, który powinien doprowadzić do powstania platformy mającej możliwości kompletnego monitorowania infrastruktury IT, przewidywania pojawienia się potencjalnych problemów i automatycznego przeciwdziałania, a także prezentowania metod i ewentualnych modyfikacji infrastruktury, które będą w stanie zwiększyć wydajność działania centrum danych.

Oracle zaprezentował w październiku 2017 r. wizję autonomicznej chmury bazodanowej: Oracle Autonomous Database Cloud, pracującej na podstawie bazy danych Oracle Database 18c. System wykorzystuje mechanizmy automatycznego uczenia do zautomatyzowania mechanizmów zarządzania jego pracą, eliminując możliwość błędów ludzkich, konieczność ręcznego dostrajania bazy oraz pozwalając na uzyskanie niespotykanego dotąd poziomu dostępności, wydajności i bezpieczeństwa. „Dzięki automatyzacji możemy zagwarantować dostępność na poziomie 99,995% oraz mniej niż 30 minut planowanych lub nieplanowanych przestojów w skali roku” – zapewniał Larry Ellison, prezes rady nadzorczej Oracle, podczas ostatniej konferencji Oracle OpenWorld 2017.

Oracle Autonomous Database Cloud zapewnia dostrajanie wydajności na podstawie automatycznego uczenia, automatycznie wprowadza uaktualnienia i aktualizacje zabezpieczeń, dostosowuje wielkość mocy obliczeniowej i pamięci masowej do bieżących wymagań aplikacji oraz zapewnia zautomatyzowaną ochronę przed przestojami. Pierwsze produkty wykorzystujące te technologie mają się pojawić w ofercie Oracle jeszcze przed końcem 2017 roku.