Konsolidacja systemu IT

Poza tym warto wziąć pod uwagę, że koszt budowy i utrzymania infrastruktury przeznaczonej dla aplikacji krytycznych - a więc wyposażonej w zaawansowane systemy chłodzenia, monitoringu, zasilania - jest względnie wysoki i wykorzystywanie jej do obsługi mniej ważnych aplikacji może być ekonomicznie nieuzasadnione. W tym przypadku zastosowanie drugiego centrum danych może okazać się finansowo korzystne.

Jednym z największych problemów jest jednak niezawodność. Awaria serwera obsługującego jedną aplikację może być poważnym problemem, ale wstrzymanie pracy maszyny udostępniającej kilka lub kilkadziesiąt ważnych dla funkcjonowania przedsiębiorstwa aplikacji może oznaczać katastrofę. Wirtualizacja udostępnia mechanizmy umożliwiające przenoszenie lub odtwarzanie maszyn wirtualnych w razie awarii elementów sprzętowych. Zmniejsza to jednak wydajność systemu IT oraz wymaga utrzymywania zapasowych zasobów. Stoi to, przynajmniej częściowo, w sprzeczności z ideą maksymalnego wykorzystania udostępnianej przez serwery mocy przetwarzania, która jest jedną z najczęściej podkreślanych zalet wirtualizacji.

Staranny plan to podstawa sukcesu

Projekty konsolidacji i wirtualizacji serwerów w centrum danych są często łatwe do uzasadnienia z punktu widzenia potencjalnych oszczędności finansowych. Ale realizacja założeń i uzyskanie planowanych efektów wcale nie jest takie proste.

Najczęściej spotykane błędy projektu to niedokładny plan, błędne założenia lub problemy z szybką detekcją i naprawą błędów pojawiających się już po wdrożeniu systemu. Z reguły powodują one, czasami istotny wzrost zakładanych początkowo kosztów inwestycji.

"Nawet doświadczony weteran IT, który zrealizował wiele projektów, musi pamiętać o wszystkich elementach systemu. A wdrożenie dużego i skomplikowanego systemu wykorzystującego konsolidację i wirtualizację serwerów może się okazać dla niego polem minowym" - mówi Joe Latrell, dyrektor IT w firmie GetMyHomesValue.com, na podstawie własnych doświadczeń z wdrażania tego typu systemu.

Zauważa on jednocześnie, że w przypadku skomplikowanych projektów konsolidacyjnych błędy są w praktyce nieuniknione i dlatego trzeba być na nie przygotowanym. Planując wdrożenie, warto uczyć się na błędach popełnionych przez innych, bo to pozwala na uniknięcie przynajmniej największych i, po fakcie, oczywistych zaniedbań.

Wirtualizacja zmienia też klasyczne linie podziału zasobów IT. Maszyny wirtualne VM (wirtualne serwery) są nie tylko serwerami, ale również elementem pamięci masowej. Często są też wyposażone w wirtualne interfejsy sieciowe, a hyperwizory mogą zawierać wirtualne przełączniki. W efekcie wirtualny serwer zainstalowany na jednym z fizycznych komputerów w centrum danych może być obiektem łączącym funkcje serwera, pamięci masowej i urządzenia sieciowego.

Klasyczne metody zarządzania, zabezpieczania dostępu do danych i identyfikacji użytkowników w tym wypadku zawodzą, bo pojawia się problem, kto jest odpowiedzialny za zarządzanie tymi wszystkimi wirtualnymi zasobami - administratorzy zajmujący się serwerami, pamięciami masowymi czy też systemem sieciowym? Tradycyjna organizacja działu IT oparta na definicjach fizycznych elementów systemu tu zawodzi.


TOP 200