Wirtualizacja i cloud computing

Wirtualizacja: strategia wielu hiperwizorów

Koncepcja przetwarzania w chmurze ściśle związana jest z rozwojem wirtualizacji. Brak wirtualizacji lub jakiegokolwiek planu wprowadzenia jej w najbliższej przyszłości w dużej infrastrukturze IT będzie zjawiskiem coraz rzadszym. Wydaje się, że niezależnie od tego, jakie są tego powody, trzymanie się kurczowo tradycyjnej infrastruktury fizycznej jest dzisiaj co najmniej nieodpowiedzialne.

Często modernizacja zawartości serwerowni polega na wymianie starszych jedno i dwurdzeniowych serwerów na nowe, co najmniej czterordzeniowe. Następnie dotychczasowe usługi starych maszyn są po prostu przenoszone na nowe serwery. Trudno wtedy mówić o efektywnym wykorzystaniu sprzętu, który z kolei mógłby łatwo obsłużyć pół tuzina wirtualnych maszyn.

Zobacz również:

  • 5 priorytetów, które obniżają koszty chmury i usprawniają operacje IT
  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Cyfrowa transformacja z AI - co nowego na Google Cloud Next 24

Za kilka lat możemy się spodziewać fundamentalnych zmian w sposobie zarządzania serwerami wirtualnymi. Kolejna rewolucja będzie miała miejsce wtedy, gdy pojawi się system operacyjny, który będzie zaprojektowany i dostrojony do pracy wyłącznie jako VM. Nie będzie go można go nawet uruchomić bez pośrednictwa hiperwizora, ze względu na brak sterowników czy innych atrybutów świata fizycznych serwerów.

Jądro systemu operacyjnego będzie mogło natychmiast żądać, adaptować i używać dodatkowych zasobów obliczeniowych - instancje serwerów nie będą martwić się o powiązany z nimi sprzęt, procesor czy RAM. Będą to systemy operacyjne ściśle zintegrowane z hiperwizorem na poziomie szeregowania zadań, które nie przejmują się procesorem, optymalizacją NUMA (Non-Uniform Memory Access) czy niedostatkiem RAM. Tego typu mechanizm Microsoft zawarł w Windows Server 8 Hyper-V, pozwalając temu hiperwizorowi na dynamiczne dodawanie RAM dla systemów operacyjnych, nawet tych starszych, jak Windows Server 2003 R2.

Pełna realizacja tej idei zajmie pewnie lata. W roku 2013 głównym priorytetem wielu organizacji pozostanie wirtualizacja serwerów. Większość organizacji stosuje strategie wykorzystywania wielu hiperwizorów głównie z powodu optymalizacji pracy aplikacji (główni dostawcy aplikacji - Oracle, Microsoft - projektują swoje aplikacje i bazy danych pod kątem pracy na własnych hiperwizorach). Innym powodem są starsze aplikacje pracujące optymalnie na określonym hiperwizorze. Używanie wielu hiperwizorów staje się elementem projektowania architektury IT w kontekście uzyskiwania z wirtualizacji serwerów wymaganej obniżki kosztów, wydajności i niezawodności. Poza tym taka strategia pozwala na spełnienie specyficznych potrzeb różnych aplikacji poprzez dopasowanie odpowiedniego hiperwizora, co jest szczególnie istotne w środowiskach bardzo zróżnicowanych.

Chmura hybrydowa - problemy bezpieczeństwa

Analitycy i specjaliści od bezpieczeństwa uważają, że spełnienie wymogów bezpieczeństwa w chmurach hybrydowych jest bardzo wymagającym zadaniem. Wynika to z istnienia wielu aspektów bezpieczeństwa chmury hybrydowej: zasobów własnego centrum danych, aplikacji przenoszonych w chmurę publiczną, danych przechowywanych u wielu dostawców chmur publicznych czy też urządzeń mobilnych podłączających się do infrastruktury cloud. Trzeba mieć również na uwadze fakt, że definicja chmury hybrydowej jest otwarta na różne interpretacje, co powoduje, że nie ma jednego, uniwersalnego rozwiązania.

Organizacje stosujące w istniejącej już sieci praktyki ochrony warstwowej (defense-in-depth) mogą stosować tę samą zasadę w strategii zarządzania bezpieczeństwem chmury publicznej. Pomóc tu mogą inicjatywy organizacji przemysłowych. W roku 2011 Cloud Security Alliance utworzyła ogólnie dostępny rejestr, który dokumentuje poziom bezpieczeństwa zapewniany przez różnych dostawców cloud. CSA Security, Trust & Assurance Registry, do którego dostawcy cloud dostarczają informacje o własnych produktach, ma pomóc użytkownikom w ocenie poziomu bezpieczeństwa zapewnianego przez tych dostawców. Na dzisiaj rejestr "zasila" około dwudziestu dostawców.

Przedsiębiorstwa muszą być też wystarczająco dojrzałe w kwestii używania technologii wirtualizacji i zarządzania cloud service, aby mieć korzyść z oferty o wyższym poziomie bezpieczeństwa. Często działy IT w przedsiębiorstwie zakładają, że z chwilą gdy przekażą część operacji do dostawcy chmury, to on przyjmuje na siebie wyłączną odpowiedzialność za bezpieczeństwo tych operacji. Jest to błąd, a dział IT powinien być szczególnie uczulony na problem zabezpieczeń implementowanych wokół chmur, z których korzysta.

Najnowsza wersja specyfikacji ISACA (COBIT 5.0), opisującej ramy zarządzania IT przedsiębiorstwa, zawiera ogólne wytyczne dla cloud computing, a w sprawie implementowania zabezpieczeń hybrydowych te wytyczne są nawet bardziej ścisłe.


TOP 200