Centra danych zwirtualizowane i w chmurach

Jak mówi Marcin Bogusz z firmy Action, polskiego producenta serwerów: "W przypadku dużych firm, zwłaszcza tych z sektora publicznego, które obowiązuje procedura przetargowa, warunek posiadania certyfikatu zgodności serwerów z oprogramowaniem wirtualizacyjnym pojawia się obecnie w 100% zapytań ofertowych. W przypadku średnich firm taki certyfikat jest ważnym elementem 60%, a w przypadku małych firm - ok. 20% tego typu zapytań".

Mimo to, zastosowania oraz zalety i wady technologii wirtualizacyjnych nie zawsze są dobrze rozumiane, nawet przez profesjonalistów z branży IT i menedżerów zarządzających centrami danych, którzy nie specjalizują się wąsko w tej dziedzinie.

Jeśli ktoś chciałby praktycznie sprawdzić swoją znajomość technologii wirtualizacyjnych, to można mu polecić ciekawy i pouczający test opublikowany przez amerykański tygodnik "Computerworld". Nie jest to poradnik dla profesjonalistów, ale zestaw 12, czasami podchwytliwych i wcale nieoczywistych pytań, które dobrze ilustrują zalety, wady i ograniczenia technologii wirtualizacji serwerów. A odpowiedzi są oparte na opiniach uznanych ekspertów w tej dziedzinie.

Usługi XaaS i przetwarzanie w chmurze

Analitycy są zgodni, że istotnym kierunkiem rozwoju technologii informatycznych są usługi zdalnego dostarczania aplikacji lub mocy obliczeniowej. Opinię taką podzielają też praktycznie wszyscy producenci sprzętu i oprogramowania, inwestując w opracowywanie technologii mających umożliwić lub ułatwić świadczenie usług. Stąd też dużą karierę zrobiły ostatnio określenia cloud computing (przetwarzanie w chmurze) lub różne wersje rozwiązań z etykietą XaaS, czyli X jako usługa.

Cloud computing i modele usługowe XaaS to praktyczna realizacja znanej od lat 60. koncepcji współdzielenia zasobów IT występującej jako model ASP (Application Service Provider), która umożliwia uzyskanie korzyści ekonomicznych ze względu na efekt skali i z reguły pozwala na dostęp do zasobów i aplikacji, niezależnie od czasu i miejsca, w którym znajduje się użytkownik. Wraz z rozwojem internetu i szerokopasmowych łączy dostępowych, możliwości udostępniania danych i aplikacji za pośrednictwem sieci WAN są nieporównywalnie większe niż przed laty. A rozwój masowego rynku usług powoduje, że realne koszty inwestycji i utrzymania systemów IT mogą być znacznie niższe niż obecnie. Jednocześnie popularyzuje się nowy model biznesowy, w którym użytkownik płaci tylko za to, co rzeczywiście wykorzystuje, np. moc przetwarzania lub pojemność pamięci masowej.

Podstawowe bariery hamujące popyt na usługi w znacznym stopniu wynikają z przyzwyczajeń do klasycznych, dobrze znanych modeli systemów IT. Na przykład brak prawa własności do oprogramowania i konieczność systematycznego regulowania należności za usługi powodują niepewność, a własny system IT z zakupionymi "na zawsze" licencjami na oprogramowanie daje poczucie stabilności. Pojawiają się też wątpliwości dotyczące niezawodności i dostępności usług, a także poziomu bezpieczeństwa danych zapewnianego przez usługodawcę. Są to realne obawy, które może rozwiać tylko masowa popularyzacja modeli usługowych. Bo nie ulega wątpliwości, że wówczas pojawi się możliwość porównania jakości usług i firmy niespełniające wymagań znikną z rynku lub dopasują swoje rozwiązania do standardów.

Pod tym względem rynek jest obecnie jeszcze niedojrzały, a użytkownicy nie wiedzą, czego mogą oczekiwać i wymagać od usługodawców. Na przykład umowy dotyczące jakości usług często nie zapewniają odpowiedniego ich poziomu, niektórzy usługodawcy nie oferują narzędzi umożliwiających kontrolę SLA, możliwości audytu bezpieczeństwa lub informacji o zasadach przechowywania danych, które są niezbędne do zagwarantowania zgodności z przepisami prawa (np. regulacjami GIODO). Niektóre firmy zapewniają dostępność usług na poziomie 99,9%, ale po dokładnym przeanalizowaniu umowy okazuje się, że usługodawca definiuje ten poziom, zakładając na przykład, że przerwy w dostępności systemu nie są dłuższe niż 10 min.

Te wady konkurują z zaletami systemów usługowych, które trudno negować, takimi jak żaden lub niewielki koszt kapitałowy inwestycji, przewidywalne koszty subskrypcji, eliminacja kosztów utrzymania systemu, a często też możliwość skorzystania z usług klasy korporacyjnej przez firmy małe lub średnie.

NA TEMAT

miniquiz - odpowiedzi

Odpowiedzi na pytania ze strony poprzedniej

1A. oprogramowanie wirtualizacyjne nie nakłada prawie żadnych ograniczeń na wersje systemów operacyjnych Windows lub Linux uruchamiane w maszynach wirtualnych.

2A. Ponowne uruchomienie maszyny wirtualnej nie ma wpływu na system zainstalowany w serwerze fizycznym, ani na inne maszyny wirtualne, bo z zasady są one odizolowane.

3B. Choć z technicznego punktu widzenia nie ma żadnych problemów i trudności we współpracy systemów kasetowych i oprogramowania wirtualizacyjnego, ale należy to starannie rozważyć biorąc pod uwagę wzrost gęstości upakowania systemu, a w efekcie zwiększenie się ryzyka związanego z potencjalnymi awariami. Jeśli na przykład w typowej obudowie kasetowej zainstalowanych zostanie 16 serwerów, a każdy będzie obsługiwał 10 maszyn wirtualnych, w wypadku poważnej awarii (przerwa w zasilaniu, pożar itp.) oznacza to, że 160 aplikacji staje się niedostępnych.

4C. Dlatego warto zapewnić odpowiednie mechanizmy pozwalające na szybkie przeniesienie danych i maszyn wirtualnych na inny fizyczny, zapasowy serwer.

5B. Liczba zadań wykonywanych przez administratorów i pracowników wsparcia technicznego w centrum danych zależy głównie od liczby działających w nim "serwerów" niezależnie od tego czy są to serwery fizyczne czy wirtualne. Choć zmniejsza się obciążenie przez prace związane z instalacją serwerów fizycznych, ale jednocześnie dochodzą nowe zadania związane z instalacją i konfiguracją oprogramowania wirtualizacyjnego.


TOP 200