Wirtualizacja i cloud computing przyszłości

Szczątkowa wirtualizacja lub jej brak w dużej infrastrukturze IT może być powodem zakłopotania, ale już brak jakiegokolwiek planu wprowadzenia wirtualizacji w najbliższej przyszłości musi budzić zdumienie. Niezależnie od tego, jakie są tego powody, trzymanie się kurczowo tradycyjnej infrastruktury fizycznej jest dzisiaj co najmniej nieodpowiedzialne.

Często modernizacja zawartości serwerowni polega na wymianie starszych jedno i dwurdzeniowych serwerów na nowe, co najmniej czterordzeniowe. Następnie dotychczasowe usługi starych maszyn są po prostu przenoszone na nowe serwery. Oczywiście trudno wtedy mówić o efektywnym wykorzystaniu sprzętu, który mógłby łatwo obsłużyć pół tuzina wirtualnych maszyn.

Polecamy Czy Twoje serwery aby się nie nudzą?

Zobacz również:

  • 5 priorytetów, które obniżają koszty chmury i usprawniają operacje IT
  • Akcje Intel spadają - winna rosnąca konkurencja w AI

Za kilka lat możemy się spodziewać fundamentalnych zmian w sposobie zarządzania serwerami wirtualnymi. Kolejna rewolucja będzie miała miejsce wtedy, gdy pojawi się system operacyjny, który będzie zaprojektowany i dostrojony do pracy wyłącznie jako VM. Nie będzie go można go nawet uruchomić bez pośrednictwa hiperwizora, ze względu na brak sterowników czy innych atrybutów świata fizycznych serwerów.

Można się spodziewać szeroko dostępnych kompilacji OS wyposażonych w kernel specjalizowany pod kątem użycia w hiperwizorach, a także z odmiennym sposobem wykorzystania i zarządzania pamięcią, CPU i zasobami we/wy. Już teraz wprowadza się CPU i RAM do VM poprzez użycie dynamicznego zwiększania zasobów, które były początkowo pomyślane jako dynamiczne rozszerzanie fizycznych RAM i CPU.

Polecamy Czy wirtualizacja w małej firmie ma sens?

Kiedy jądro systemu operacyjnego będzie mogło natychmiast żądać, adaptować i używać dodatkowych zasobów obliczeniowych, będziemy bliżej koncepcji prawdziwego przetwarzania w chmurze: instancje serwerów nie martwiące się o powiązany z nimi sprzęt, procesor czy RAM. Będą to systemy operacyjne ściśle zintegrowane z hiperwizorem na poziomie szeregowania zadań, które nie przejmują się procesorem, optymalizacją NUMA (Non-Uniform Memory Access) czy niedostatkiem RAM. Warto dodać, że tego typu mechanizm Microsoft zawarł w Windows Server 8 Hyper-V, pozwalając temu hiperwizorowi na dynamiczne dodawanie RAM dla systemów operacyjnych, nawet tych starszych, jak Windows Server 2003 R2.

Polecamy Testujemy Windows Server 8 beta

Pełna realizacja tej idei zajmie lata. Hiperwizor będzie stawał się wystarczająco "mądry" aby przejąć kontrolę nad tymi funkcjami i w gruncie rzeczy przekształcić każdą VM w "aplikacyjny silos". W miarę zwiększania obciążenia aplikacjami, jądro będzie bardziej zajmować się komunikowaniem rosnących wymagań na zasoby hiperwizorowi, który wtedy, na niższym poziomie, podejmie decyzje, które zasoby fizyczne udostępnić danej VM, oraz o transformacji innych instancji na różne serwery fizyczne w celu zrobienia miejsca, jeżeli okaże się to niezbędne.

Będzie się to obywać się bez koncepcji przydzielania VM limitów emulowanych CPU i RAM, za to bardziej jak w parawirtualizacji - bez sytemu operacyjnego-hosta w roli pośrednika i stałego jądra. Każda VM może wiedzieć, że pracuje jako maszyna wirtualna, ale będzie także uruchamiać swoje własne jądro i będzie mieć możliwość adresowania sprzętu bezpośrednio, z hiperwizorem zarządzającym tą transakcją.

Serwery fizyczne będą w istocie gniazdami CPU i RAM, z interfejsami sieciowymi całkowicie zarządzanymi przez oprogramowanie.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200