Pięć nowych technologii w centrach danych

Warto przyjrzeć się najgorętszym technologiom i spojrzeć na nie od strony wdrożeń w serwerowniach, bo nie wszystkie nowe pomysły, o których jest głośno, przyjmują się później praktyce.

Działy IT muszą wykorzystywać nowinki informatyczne, aby wspierać rozwój biznesu. Technologie wymienione w tym artykule mają znaczący wpływ na układ sił między producentami, ale nie wszystkie są już gotowe, aby wdrażać je w centrach danych.

Nośniki Flash

Wiele technologii ma zadanie umożliwić szybsze działanie zasobów IT. W przypadku pamięci masowych chodzi głównie o pamięci Flash, które przede wszystkim zwiększają szybkość odczytu i zapisu danych, co ma bezpośrednie przełożenie na produktywność. Ta technologia pojawiła się w 2008 r. Eksperci przewidują, że w najbliższych 4 latach w tym obszarze będziemy obserwować więcej innowacji niż w ciągu 7 ostatnich lat od jej pojawienia się. Już teraz wiele firm korzysta z rozwiązań hybrydowych oraz All-Flash, a kolejna fala rozwiązań typu Flash as Memory Extension (FaME) zapewni jeszcze większą wydajność i skróci opóźnienia.

Zobacz również:

  • Cyfrowa transformacja z AI - co nowego na Google Cloud Next 24

Flash zaczyna być powszechnie stosowany w chmurach publicznych, włączając w to coraz więcej ofert typu All-SSD od Amazona (AWS) i Microsoftu (Azure). Chociaż wizja centrów danych wyłącznie z nośnikami SSD jest słuszna, to jeszcze długo będziemy mieć do czynienia z hybrydowym połączeniem SSD i HDD z uwagi na różne wymagania dotyczące wydajności i pojemności. Trzeba pamiętać też, że nie ma czegoś takiego, jak usunięcie wąskiego gardła. Nośniki Flash sprawiają, że pojawia się ono w innym miejscu.

Hiperkonwergencja

Nośniki Flash mogą przyczynić się do zwiększenia wydajności i elastyczności IT, ale największy potencjał do wsparcia IT mają rozwiązania upraszczające dostarczane zasobów infrastruktury i zarządzania nimi. Konwergentna i hiperkonwergenta infrastruktura są częścią trendu polegającego na tym, że użytkownicy coraz częściej szukają prostoty, kupując zintegrowane rozwiązania. Takie rozwiązania są łatwiejsze do wdrożenie oraz obniżają koszty operacyjne (badania od lat pokazują, że 75% budżetów jest przeznaczanych na bieżące zarządzanie).

O ile obecnie najczęściej wdrażane są gotowe do działania urządzenia, trzeba uważnie przyglądać się rozwiązaniom typu Software Defined, z wykorzystaniem których można budować infrastrukturę hiperkonwergentną. Już teraz niektórzy producenci obserwują wzrost przychodów w tym obszarze. Przykładowo, w przypadku SDS (Software Defined Storage) zaletą jest fakt, że to oprogramowanie tworzy pule zasobów, zamiast tradycyjnie operować w kategoriach macierzy. Ta nowa architektura będzie miała rewolucyjny wpływ na budowę pamięci masowych w nadchodzącej dekadzie.

OpenStack

Projekt OpenStack wygrał wojnę o przychylność użytkowników, którzy chcą budować chmury prywatne. To rozwiązanie jest zbudowane z komponentów open source, dzięki czemu klienci widzą w nim możliwość zmniejszenia przywiązania (lock-in) do producentów zamkniętych rozwiązań. Użytkownicy zainteresowani budową chmury, wybierają przede wszystkim między ofertą VMware, Microsoftu oraz właśnie OpenStack (trzeba podkreślić, że OpenStack nie jest pojedynczym produktem, a przykładowo VMware oferuje VMware Integrated OpenStack, VIO). Na rynku następuje silna konsolidacja i wreszcie można się skupić na poprawianiu efektywności operacyjnej. Warto odnotować, że OpenStack zamierza głęboko zaktualizować lub nawet wymienić cały stos technologiczny zaledwie po pięciu latach, ponieważ jest już gotowych wiele bardzo dobrych, nowych narzędzi open source. Linux ma duże szanse stać się krytycznym elementem infrastruktury i będzie szczególnie przydatny w przypadku integracji nowych technologii.

Wciąż jednak jest zbyt wiele projektów na różnych etapach rozwoju i porównywanie oraz integracja różnych rozwiązań OpenStack jest trudne. Fundacja OpenStack szuka sposobu, aby rozwiązać te problemy.

Kontenery

Docker wręcz magnetycznie przykuwa uwagę branży IT – w ciągu ostatnich 12 miesięcy to oprogramowanie pobrano 500 milionów razy. Ten projekt jest jednak w dość wczesnej fazie rozwoju, a architektura kontenerów jest skomplikowana i wciąż ewoluuje. Oprócz Dockera, w tym obszarze zainteresowaniem cieszą się rozwiązania takich producentów, jak CoreOS, Hashicorp oraz Kubernetes. Duże wrażenie robi fakt, że rynek kontenerów ma silnie społecznościowych charakter. Sytuacja bardzo przypomina VMware’a dekadę temu, ale dzisiaj sprawy rozwijają się dużo szybciej. Wokół projektu Docker oraz ogólnie wokół kontenerów powstał już duży ekosystem. Przykładowo, Microsoft bardzo szybko wprowadza w swojej chmurze Azure oraz systemie Windows Server możliwość korzystania z kontenerów.

Na razie jednak kontenery są wykorzystywane głównie w środowiskach deweloperskich, rzadko są używane w środowiskach produkcyjnych. Wielu informatyków wyraża obawy o bezpieczeństwo wdrażania tej technologii. Udoskonalenia wymaga komunikacja sieciowa i obsługa pamięci masowych.

Platformy chmurowe

Usługi PaaS (Platform as a Service) przed długi czas wskazywano jako przyszłość cloud computingu, jednak dzisiaj większość producentów raczej nie zabiega o miano dostawcy tego rodzaju usług chmurowych. Mimo że platforma jako usługa ułatwia użytkownikom dostosowywanie się do zmian, to PaaS ma najmniejszy udział w rynku chmury publicznej. Nawet mimo szybkiego tempa wzrostu ten obszar jest wciąż mniejszy niż SaaS oraz IaaS.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200