Wirtualne centra danych

Centrum przetwarzania danych jest sercem organizacji. Pracownicy firmy, jej partnerzy i klienci - wszyscy korzystają ze znajdujących się tam danych i udostępnionych zasobów. Przez ostatnią dekadę rozwój Internetu i opartych na nim technologii spowodował, że centra danych stały się bardziej strategicznym miejscem niż kiedykolwiek, zwiększając produktywność, przyspieszając procesy biznesowe i przygotowując firmy na nadchodzące zmiany.

Centrum przetwarzania danych jest sercem organizacji. Pracownicy firmy, jej partnerzy i klienci - wszyscy korzystają ze znajdujących się tam danych i udostępnionych zasobów. Przez ostatnią dekadę rozwój Internetu i opartych na nim technologii spowodował, że centra danych stały się bardziej strategicznym miejscem niż kiedykolwiek, zwiększając produktywność, przyspieszając procesy biznesowe i przygotowując firmy na nadchodzące zmiany.

Przed administratorami centrów danych stoi wiele wyzwań. W większości przypadków tak duży rozwój centrów danych spowodowany był koniecznością zaspokojenia potrzeb związanych z nagłym wzrostem ekonomicznym w poprzedniej dekadzie. W konsekwencji aplikacje, które pracowały samodzielnie, pozostały w zbyt przeciążonych silosach, trudnych w zarządzaniu i w żadnym stopniu niegotowych na rozwój, skalowanie czy szybką zmianę.

Analitycy rynku przewidują, że 70% budżetów IT jest związanych z utrzymaniem istniejących środowisk aplikacyjnych. Dlatego organizacje IT muszą zwiększać wydajność operacyjną, optymalizować utylizację zasobów centrów danych i znaleźć fundusze na nowe innowacyjne projekty IT, które pomogą zwiększyć przychód firmy.

Świadomość rynku, dotycząca zaawansowanych usług w obszarze IT, cały czas rośnie - twierdzi Krzysztof Komorowski, odpowiedzialny za rozwój usług On Demand w IBM Polska. Coraz więcej mówi się np. o architekturze SOA, ale ta świadomość jeszcze nie przekłada się na wdrażanie całościowych modeli w firmach. Niektórzy klienci na razie decydują się na zakup poszczególnych elementów z tej oferty, z planem ich późniejszej rozbudowy. W moim odczuciu musi minąć jeszcze trochę czasu, aby całościowa koncepcja - obejmująca architekturę, elastyczną infrastrukturę, outsourcing i modele finansowania - była traktowana jako naturalna strategia firmy. Świadomość takich potrzeb na świecie zwiększają akwizycje i wzajemne przejęcia firm, ponieważ firmy stosujące podejście On Demand w oczywisty sposób skuteczniej pokonują trudności wynikające ze zmian organizacyjnych, ale w Polsce to zjawisko jest jeszcze mało powszechne. W wielu firmach IT jest tradycyjnie traktowane tylko jako uciążliwy koszt, a to przecież rakieta, którą można wystartować wyprzedzając konkurencję o wiele długości.

<hr size="1" noshade>VMware Virtual Infrastructure 3

Wirtualne centra danych

Firma VMware (jej właścicielem obecnie jest EMC) od dawna istnieje na rynku maszyn wirtualnych i od dawna temu rynkowi przewodzi. Wirtualne maszyny VMware jako podstawy wymagają systemu operacyjnego Linux lub Windows działającego jako host. Wyróżnikiem VMware jest ogromne bogactwo systemów operacyjnych, z których mogą korzystać maszyny wirtualne - BSD, Linux, Netware, Unix i wszystkie wersje Windows.

VMware ma także drugą grupę produktów, przeznaczoną dla większych firm. Rozwiązania ESX Server podchodzą do tematu maszyn wirtualnych w trochę inny sposób - zamiast instalować je na standardowym systemie operacyjnym działającym jako host, same instalują na "czystym" serwerze bardzo mały, oparty na Linuksie, własny system, który staje się podstawą dla maszyn wirtualnych, dając jednocześnie możliwość zainstalowania ich większej liczby.

Udostępniony niedawno pakiet VMware Virtual Infrastructure 3 zawiera nową wersję serwera ESX z wieloma rozszerzonymi funkcjami. VMware dodał wsparcie dla czteroprocesorowych maszyn wirtualnym, z maksymalnie 16 GB pamięci na maszynę i oficjalnym wsparciem dla 64-bitowych systemów operacyjnych. Rozbudowano także możliwość podłączania wirtualnych maszyn do sieci SAN. ESX Server 3 może czytać pliki z maszynami wirtualnymi zarówno z zasobów NFS, jak też woluminów iSCSI SAN. Wirtualne maszyny mogą być uruchamiane bezpośrednio z sieci SAN, a nawet sam ESX Server może być stamtąd zabootowany.

W nowej wersji serwera ESX VMware radykalnie zmienił interfejs użytkownika. Nowością w Virtual Infrastructure 3 jest funkcja Distributed Availability Services, która pozwala na automatyczną migrację wirtualnej maszyny z jednego hosta do drugiego w przypadku wystąpienia błędów sprzętowych. Wprowadzono także narzędzie umożliwiające dynamiczną migrację wirtualnych maszyn pomiędzy zasobami sprzętowymi (rozwiązanie to analizuje poziom wykorzystania mocy serwera i w razie zapotrzebowania na dodatkowe zasoby przenosi blokujące je działające maszyny wirtualne na inny serwer).<hr size="1" noshade>

Działanie na żądanie

Wirtualne centra danych

Dynamiczne centrum przetwarzania danych

Większość firm na świecie (i w Polsce) będzie wkrótce zmuszona do przeprowadzenia pewnych inwestycji w swoich centrach danych. Zmusi je do tego sytuacja rynkowa, a zachęci coraz ciekawsza oferta producentów. W tym zakresie widocznych jest kilka trendów. Od kilku lat obserwujemy proces konsolidacji centrów danych - mówi Marcin Karczmarczyk, Data Center Manager w HP. Duże międzynarodowe firmy coraz częściej decydują się na przeniesienie zasobów z lokalnych małych serwerowni do dużych centrów danych. Centra te z reguły są znacznie lepiej zabezpieczone, wyposażone we właściwe systemy zabezpieczające pracę urządzeń komputerowych, takie jak urządzenia zasilające czy klimatyzacyjne. Finalnie koszt zarządzania jedną dużą serwerownią i znajdującymi się tam zasobami jest znacznie niższy niż kilkoma rozproszonymi. Konsolidacja data center to dla przedsiębiorstwa decyzja strategiczna. Przygotowanie działu IT i stworzenie skonsolidowanego środowiska zajmuje sporo czasu, jednak dla wielu firm może być bardzo opłacalne.

Podstawowym zadaniem każdego większego centrum danych jest udostępnianie danych i zasobów IT wewnątrz organizacji. W tym zadaniu pomaga - jej ideę tłumaczy Krzysztof Pawłowski z Fujitsu Siemens Computer. Zamiast budować aplikacje czy systemy o charakterze zamkniętym, czyli silosowym, próbujemy połączyć moc obliczeniową serwerów w pulę, tak aby w zależności od zapotrzebowania systemy pobierały odpowiednią ilość mocy. Zastosowanie koncepcji wirtualizacji powinni rozważyć przede wszystkim klienci, którzy w swoim systemie IT mają uruchomionych wiele usług pracujących pod różnym obciążeniem w różnych porach doby, tygodnia, miesiąca.

W zgodzie z tymi dwoma trendami trzy największe firmy oferujące rozwiązania dla centrów danych - FSC, HP i IBM - opracowały strategie marketingowe (odpowiednio Dynamic Data Center, Adaptive Enterprise i On Demand), które mają jeden wspólny mianownik: przygotować firmę, tak aby na wypadek niespodziewanych i niezaplanowanych zmian była w stanie szybko na nie zareagować, bez konieczności wprowadzania rewolucji w całej organizacji.

Według Krzysztofa Komorowskiego, odpowiedzialnego za rozwój usług On Demand w , ta idea oznacza zorganizowanie działania przedsiębiorstwa czy instytucji w taki sposób, aby było ono gotowe do szybkiej reakcji na wydarzenia na rynku i dostosowanie swojego działania do nowych potrzeb. Aby to osiągnąć, trzeba spełnić kilka warunków: architektura informatyczna powinna być tak zaplanowana, by pozwalała na ciągłą rozbudowę bez konieczności głębszych zmian struktury. Istotne jest też, by cechowała się ona rozwiniętą warstwą komunikacyjną, dzięki której różne aplikacje automatycznie będą mogły wymieniać się danymi, eliminując konieczność ręcznego ich przenoszenia i uciążliwego modyfikowania połączeń przy każdej zmianie funkcjonalności. On Demand oznacza też, że firma nie musi samodzielnie wykonywać wszystkich zadań informatycznych. Część prac może przekazać na zewnątrz w ramach outsourcingu, co zwiększa elastyczność reakcji. Na przykład gdy zmienia się ilość danych do przetworzenia, wyspecjalizowana firma zewnętrzna jest w stanie natychmiast odpowiednio zmienić zakres swoich usług, a my nie martwimy się o nowy serwer, albo odwrotnie, o to co zrobić z nadmiarem sprzętu. On Demand to także możliwość dynamicznego dostosowywania kosztów działania do poziomu prowadzonego biznesu - outsourcing to właśnie umożliwia.

<hr size="1" noshade>Sun Solaris Containers

Wirtualne centra danych

Sun Microsystems korzystał już wcześniej z funkcji wirtualizacji we własnym systemie Unix, działającym na dużych maszynach z rodziny E10000. Ale dzięki rozwiązaniu Solaris Containers sprowadzono funkcjonalność wirtualizacji na niższy poziom, tym samym udostępniając ją większej grupie odbiorców. Containers działają w systemie Solaris 10 na procesorach Sparc i x86, a w połączeniu z nowym wielordzeniowym procesorem Sun Sparc T1 tchnęły nowe życie w strategię wirtualizacji Suna.

Rozwiązanie Containers pozwala na zwielokrotnienie instancji Solaris 10 na jednym fizycznym serwerze, gdzie wirtualne serwery współdzielą jądro systemu, ale działają w oddzielnych instancjach. Koncepcja nie jest całkiem nowa, ale wzbogaca ją rozwiązanie Solaris Zones, które pozwala na dokładniejszą niż wcześniej kontrolę zasobów. Administrator może tworzyć pule z kilku procesorów serwera lub wydzielać konkretne procesory do obsługi poszczególnych wirtualnych maszyn.

Rozwiązania Fair Share Scheduler w Solaris 10 jest odpowiedzialne za proporcjonalne alokowanie zasobów z puli w różnych kontenerach w poszczególnych strefach. W ten sposób dwie strefy w oddzielnych kontenerach mogą mieć różne przydziały zasobów, dając administratorom większą elastyczność i kontrolę nad utylizacją serwerów.

Podobnie jak wszystkie produkty oparte na Solarisie, zestaw Suna wykorzystuje wiersze poleceń, dzięki czemu administratorzy mogą tworzyć skrypty do alokacji zasobów i zarządzania nimi. Tworzenie kontenerów i stref jest dość prostym procesem do wykonania poprzez wiersze poleceń. Ale Sun oferuje też dodatkowy produkt - Solaris Container Manager, jako część zestawu narzędzi do zarządzania N1. Jest to nakładka graficzna do Sun Management Center, która pozwala administratorom konfigurować i zarządzać kontenerami z poziomu wielu hostów.

Sun deklaruje, że już wkrótce pojawi się wersja oprogramowania wirtualizacyjnego dla systemów kompatybilnych z Linuksem, działających z procesorami x86.<hr size="1" noshade>


TOP 200