Narzędzia do poprawki

Pomimo postępującej automatyzacji narzędzia do zarządzania centrami danych nie przestaną być potrzebne. Zmianom ulegnie jedynie ich architektura, zakres działania oraz stawiane przed nimi wymagania.

Pomimo postępującej automatyzacji narzędzia do zarządzania nie przestaną być potrzebne. Zmianom ulegnie jedynie ich architektura, zakres działania oraz stawiane przed nimi wymagania.

Wiele wskazuje na to, że narzędzia do zarządzania centrami danych ulegną w ciągu kilku lat zasadniczej rekonstrukcji. Zmiany są konieczne, ponieważ zmieni się architektura sprzętowa, czego symptomy widać już obecnie. Modyfikacji ulegną również warstwy: systemowa i komunikacyjna, dostosowując się do nowych możliwości stwarzanych przez sprzęt, ale także do nowych wymagań aplikacyjnych, które także będą ewoluować.

Narzędzia do zarządzania będą musiały dostosować się do nowych warunków na poziomie operacyjnym - to oczywiste, że wraz z nowymi wersjami urządzeń, usług i aplikacji pojawiają się narzędzia dostosowane do nich. Ale nie tylko. Równolegle narzędzia będą musiały przejść metamorfozę jakościową wraz ze wzrostem skali i stopnia skomplikowania centrów danych, prowadzące je firmy będą wymagać daleko idącej automatyzacji oraz zdolności do samodzielnego diagnozowania i usuwania problemów.

Droga do łatwiejszego zarządzania coraz bardziej skomplikowaną infrastrukturą centrów danych przy jednoczesnym zapewnieniu im większej niezawodności wiedzie ku wirtualizacji wszystkich ich zasobów. O ile jeszcze kilka lat temu można było mieć wątpliwości, czy całych centrów danych jest właściwym kierunkiem rozwoju i czy w ogóle jest możliwa, o tyle dziś jest to w sumie sprawa niepodlegająca dyskusji. Przynajmniej na początku łatwo jednak nie będzie.

Sprzęt do wymiany

Zmiany w warstwie sprzętowej są konieczne dla przyszłych zmian w warstwach wyższych. Większość dotychczasowych ułatwień w zarządzaniu centrami danych wymagała większej mocy obliczeniowej i lepszej infrastruktury komunikacyjnej. Większe zasoby były potrzebne, by móc zapewnić wydajną pracę kluczowych aplikacji i usług, a jednocześnie sond badających ich wydajność, dostępność, niezmienność konfiguracji, bezpieczeństwo itd. Sondy muszą też mieć możliwość wydajnego komunikowania się z systemami analizującymi te dane i konsolami informującymi administratorów o ewentualnych problemach - na tym w końcu polega zarządzanie.

Tak będzie i tym razem, przy czym obietnice składane przez różne firmy w ich wizjach architektur przyszłości każą sądzić, że wymagania na wydajność obliczeniową, I/O i komunikacyjną będą bardzo duże. Jeśli jeden system sprzętowy ma zapewnić efektywne działanie wielu wirtualnych środowisk systemowych, sprzęt musi być "świadomy" ich istnienia i zapewniać akcelerację kluczowych operacji, jak zmiana kontekstu, wydajna komunikacja między maszynami wirtualnymi, transakcyjna synchronizacja stanu między nimi i wiele innych możliwości.

Środowiska wirtualne oparte na hypervisorach, jak te, które oferują obecnie IBM, VMware, Xen i inni (również Microsoft deklaruje, że kolejna wersja Virtual Server będzie oparta na takiej architekturze), już teraz rozrastają się funkcjonalnie i to właśnie za ich pośrednictwem zarządzane będą pule maszyn wirtualnych. Dostosowanie istniejącego oprogramowania zarządzającego do nowych wymagań jest łatwe tylko z pozoru.

Istniejące rozwiązania opierają się na dedykowanych serwerach komunikujących się bezpośrednio z systemami i aplikacjami lub działającymi w ich środowiskach sondami. Taki scenariusz jest możliwy także w świecie wirtualnym, ale przeniesienie do niego istniejących rozwiązań wydaje się niecelowe. To zasadnicza zmiana jakościowa na wiele sposobów.

Poprzez wtyczki do maszyn wirtualnych systemy zarządzania nowej generacji będą w stanie łatwiej sięgać do informacji o stanie samych maszyn, jak i działających w ich środowiskach systemów i aplikacji. Po wtóre, informacja o całym stosie aplikacyjnym - od sprzętu po usługi i obiekty biznesowe - będzie dostępna w jednym miejscu w jednym czasie.

To coś, czego obecne rozwiązania nie są w stanie zapewnić. W dotychczasowych rozwiązaniach informacje z aplikacji, systemu oraz poszczególnych elementów serwera i sieci pozyskiwane są oddzielnie, a ich korelowanie i w konsekwencji wyszukiwanie źródeł problemów to prawdziwa sztuka. Wątpliwe, aby firmy na poważnie traktujące przeniesienie zasobów aplikacyjnych do przestrzeni wirtualnej przystały na znacznie mniejszą elastyczność i funkcjonalność.

Przeniesienie całego centrum danych do przestrzeni wirtualnej będzie mieć konsekwencje także dla innych aspektów zarządzania, przede wszystkim szeroko pojętego bezpieczeństwa. Zagrożenia z reguły powstają tam, gdzie kryje się możliwość uzyskania jak największej kontroli nad środowiskiem, by mieć duże pole manewru lub też by ukryć swoją wizytę w systemie. W środowiskach wirtualnych hypervisory niewątpliwie są takim punktem i zarządzanie bezpieczeństwem z jego pominięciem byłoby fundamentalnym błędem.

Wydajność pobudza fantazję Pojawienie się nowego, wydajnego sprzętu, zdolnego przyspieszać kluczowe funkcje środowisk wirtualizacyjnych i umożliwić swobodne gospodarowanie zasobami sprzętowymi, z pewnością przemówi do wyobraźni producentów oprogramowania. Chodzi o bardzo szeroką gamę dostawców: aplikacji, rozwiązań integracyjnych oraz systemów do zarządzania procesami biznesowymi opartych na regułach.

Niewielkie opóźnienia, duże pasmo dla operacji I/O oraz jednorodne środowisko komunikacyjne doprowadzi do ziszczenia się wizji SOA oraz umożliwi wdrożenie bardzo skomplikowanych procesów biznesowych. Tak bardzo skomplikowanych, że powstanie grunt dla całkiem nowej klasy systemów zarządzania. Ich zadaniem będzie nadzór nad poprawnością merytoryczną procesów, ich optymalizacja biznesowa na podstawie "reguł dla reguł".

Pojęcie infrastruktury IT i zarządzania nią znacząco się wtedy rozszerzy, obejmując zagadnienia stricte biznesowe, np. prawidłowość i terminowość rozliczeń, wydajne pozyskiwanie danych z systemów źródłowych na potrzeby aplikacji analitycznych, automatyczna weryfikacja prawidłowości danych będących podstawą zautomatyzowanych systemów wspomagania decyzji, weryfikacja jakości danych itp.

W ramach jednego, zwirtualizowanego środowiska obliczeniowego aplikacje zarządcze tego rodzaju stanowić będą nową klasę brokerów komunikacyjnych. Na potrzeby kontroli transakcji między dużymi środowiskami aplikacyjnymi wiele takich systemów przyjmie formę rozszerzeń dla dedykowanych akceleratorów sieciowych obecnych na rynku już dziś w ofercie Cisco i kilku innych firm.

Centralizacji nie da się tu uniknąć, ponieważ wszelka kontrola i weryfikacja mają sens głównie wtedy, gdy obejmują wszystkie transakcje bez wyjątku. Można by teoretycznie rozważać architektury, w których istnieje wiele wyspecjalizowanych punktów kontroli, aczkolwiek w praktyce każdy dział IT odrzuci taki pomysł. Wiele procesów wykorzystuje te same systemy, tyle że na różne sposoby. Mnożenie bytów zarządczych w sytuacji braku ograniczeń po stronie wydajności jest raczej nieuzasadnione.

Co najmniej trzy warstwy

Jeśli przyszłością centrów danych jest większa automatyzacja zarządzania, czy wręcz samozarządzanie, można zastanawiać się, jak będzie ono realizowane w praktyce i jaki może być jego zakres. Zmiany pójdą przypuszczalnie w kierunku większej niż dotychczas automatyzacji zarządzania najniższymi warstwami, a więc np. zarządzania dostępem do zasobów fizycznych, które będą stawać się coraz bardziej standardowe i wymienne. To jednak nie znaczy, że warstwą sprzętu (BIOS-y, sterowniki, systemy operacyjne) nie będzie się zarządzać w ogóle.

Prawdopodobny scenariusz jest taki, że powstaną co najmniej trzy klasy rozwiązań do zarządzania centrami danych. Pierwsza będzie zarządzać tym, co dziś znamy jako usługi systemów operacyjnych lub hypervisorów, a więc wszelkimi zasobami fizycznymi. Jedno narzędzie lub ich spójny zestaw będzie musiał zapewnić pełną obsługę mocy obliczeniowej, zasobów sieciowych i systemów pamięciowych. Dziś nie wydaje się to naturalne, ale w dobie wirtualizacji będzie oczywistością.

Druga warstwa rozwiązań powstanie wokół hypervisorów zarządzających maszynami wirtualnymi. Jej zadaniem będzie z jednej strony komunikowanie się z warstwą zarządzającą sprzętem, z drugiej zaś dbanie o poprawność konfiguracji maszyn, definiowanie połączeń między nimi, prowadzenie rejestru użytkowników, aplikacji i zasobów.

W tej warstwie koncentrować się będzie zapewnienie wysokiej dostępności poprzez "ukrywanie" problemów ze sprzętem, a równocześnie zwielokrotnieniem maszyn wirtualnych, replikacją, odtwarzaniem itd. Z punktu widzenia celów warstwa ta będzie najbardziej przypominać dotychczasowe narzędzia do zarządzania, aczkolwiek jej praktyczna realizacja będzie inna.

Trzecia warstwa będzie obejmować opisane wyżej zarządzanie usługami i aplikacjami uruchamianymi w ramach jednej lub wielu maszyn wirtualnych. Prawdopodobnie będzie ono zorientowane bardziej na konfigurowanie reguł i procedur składających się na bardziej złożone procesy, niż dostępność i wydajność - to będzie domena warstwy hypervisorów.

Wirtualizacja w ramach sprzętu

Wirtualizacja centrów danych nie będzie polegać jedynie na tym, że na dużych serwerach uruchamiane będą równolegle wspomagane sprzętowo hypervisory. Prawdziwa wirtualizacja wymaga swobody w separacji zasobów i definiowania związków między nimi. Ten kierunek już znamy - jeden duży serwer można dziś podzielić na wirtualne serwery wykorzystujące 100% lub tylko ułamek mocy obliczeniowej jednego lub więcej procesorów. Zmiany idą jednak w kierunku dalszego rozluźniania związków między elementami składowymi serwerów.

Kanadyjska firma Liquid Computing przedstawiła niedawno obudowy i serwery kompaktowe, które umożliwiają swobodne dzielenie ich zasobów - mocy obliczeniowej, pamięci, pasma I/O itd. na serwery logiczne. Ponieważ wirtualizacja jest wbudowana na poziomie sprzętu, aplikacjom można przydzielać większe zasoby bez jakiejkolwiek rekonfiguracji. To oczywiście nie wyklucza uruchamiania na wydzielonych serwerach hypervisorów i maszyn wirtualnych w ich środowiskach. Po prostu elastyczność jest większa, co z punktu widzenia efektywności zarządzania zawsze jest pozytywne.

Ważnym krokiem w kierunku ułatwienia budowy zwirtualizowanych centrów danych będzie standaryzacja elementów sprzętowych i wynikająca z niej możliwość ich wzajemnego zastępowania się. Ciekawy krok w tym kierunku wykonał ostatnio HP ogłaszając, że obudowy serwerów kompaktowych c-class będą mogły zawierać zarówno moduły serwerowe, jak i moduły z dyskami. W wyniku ewolucji koncepcji standardowego modułu w nieodległej przyszłości pojawią się zapewne moduły akceleratorów określonych funkcji centrum danych lub algorytmów obliczeniowych, systemy bezpieczeństwa, czy też współdzielona między serwerami pamięć nieulotna na potrzeby lepszego buforowania komunikacji z serwerami transakcyjnych i analitycznych baz danych itp.


TOP 200