Centra danych zwirtualizowane i w chmurach

Systemy zintegrowane

Idea wprowadzenia do sprzedaży systemów integrujących serwery, urządzenia sieciowe, pamięci masowe i oprogramowanie to jeden z ważnych kierunków rozwoju systemów przeznaczonych dla dużych centrów danych, ale również mniejszych firm.

Podstawową zaletą takich zintegrowanych zestawów jest możliwość uwolnienia użytkowników od konieczności trudnej, kosztownej i często długotrwałej integracji systemu składającego się z elementów pochodzących od różnych producentów. W efekcie całkowity koszt wdrożenia centrum danych może być obniżony, a jego czas skrócony. Tego typu koncepcja ma też wady - przede wszystkim brak możliwości wyboru elementów najlepszych w swojej klasie oraz uzależnienie od jednego producenta.

Systemy zintegrowane mają różną architekturę, funkcjonalność i zastosowania. Dostępne są zarówno w postaci zestawów umożliwiających budowę dużego, korporacyjnego centrum danych, jak i specjalizowanych urządzeń przeznaczonych dla małych i średnich firm. Ich wspólną cechą jest koncepcja połączenia elementów infrastruktury sprzętowej, serwerów, pamięci masowej i urządzeń sieciowych z preinstalowanym oprogramowaniem narzędziowym oraz aplikacyjnym w jeden zintegrowany i zoptymalizowany system.

W wypadku modernizacji lub rozbudowy systemu IT dodatkowym problemem może być zgodność z istniejącą infrastrukturą, a więc możliwość współpracy systemu zintegrowanego z już wykorzystywanymi urządzeniami i aplikacjami. Systemy zintegrowane z zasady są mniej elastyczne pod względem możliwości wyboru i konfiguracji zarówno ich elementów sprzętowych, jak i oprogramowania. Jeśli jednak ich parametry i funkcje są zgodne z rzeczywistymi wymaganiami użytkownika, to zakup i wdrożenie takich rozwiązań są z reguły tańsze i szybsze w porównaniu z projektami zakładającymi samodzielną integrację wszystkich elementów.

Przykładami systemów zintegrowanych dla korporacji i dużych centrów danych mogą być Cisco UCS (Unified Computing System) i Oracle Exadata Database Machine, integrujące serwery, pamięci masowe, elementy sieciowe, oprogramowanie do wirtualizacji i zarządzania, a także aplikacje biznesowe. Podobną platformę obliczeniową - HP BladeSystem Matrix - ma w swojej ofercie HP. Również Fujitsu opracowuje tego typu rozwiązania; m.in. we współpracy z DataCore, firma wprowadziła do sprzedaży systemy, w skład których wchodzą pamięci, serwery oraz oprogramowanie DataCore SANsymphony, umożliwiające wirtualizację zasobów pamięci i udostępniające funkcje tworzenia kopii danych w czasie rzeczywistym oraz automatycznego przenoszenia zasobów w razie awarii.

Postępująca wirtualizacja

Wirtualizację trudno nazwać nową, innowacyjną technologią, bo w praktyce ma ona już ok. 40 lat. Na przykład w 1972 r. IBM wprowadził system operacyjny VM/370 dla swoich komputerów mainframe, który umożliwiał ich logiczne partycjonowanie i tworzenie odizolowanych maszyn wirtualnych. Podobnie jednak, jak w przypadku komputerów IBM PC, prawdziwa rewolucja to dopiero masowe wykorzystanie i popularyzacja nowej technologii. Pod tym względem wirtualizacja jest technologią stosunkowo młodą, choć obecnie można ją uznać za dojrzałą do masowych zastosowań. Za początek kariery systemów zwirtualizowanych można uznać rok 1999, gdy VMware zaprezentowała pierwszy swój system dla komputerów PC, lub 2001 r., gdy pojawiła się jego wersja serwerowa dla Windows i Linux.

W centrach przetwarzania danych wirtualizacja stała się czymś oczywistym i naturalnym. Dotyczy to przede wszystkim serwerów i pamięci masowych. Coraz trudniej znaleźć producenta sprzętu lub oprogramowania, który nie miałby dla swoich produktów certyfikatów zgodności z różnymi platformami wirtualizacyjnymi.

NA TEMAT

miniquiz - pytania

1. W serwerze z zainstalowanym oprogramowaniem wirtualizacyjnym, na każdej z maszyn wirtualnych można:

A. uruchamiać dowolną wersję Windows niezależnie od tego, jakie wersje tego systemu działają w innych maszynach.

B. systemy Windows nie mogą się różnić bardziej niż o jedną kolejną wersję.

C. wszystkie wersje Windows muszą być takie same.

2. Na zwirtualizowanym serwerze:

A. można ponownie inicjować (rebootować) dowolną maszynę wirtualną bez jakiegokolwiek wpływu na pozostałe maszyny.

B. jeśli jedna maszyna wirtualna wymaga ponownego uruchomienia, to wszystkie pozostałe również.

C. ponowne uruchomienie maszyny wirtualnej wymaga wcześniejszego przeładowania systemu kontrolującego serwer fizyczny, a wszystkie działające na nim maszyny wirtualne są później automatycznie uruchamiane.

3. Wirtualizacja i serwery kasetowe:

A. są technicznie niezgodne.

B. są to dwie technologie, które należy łączyć z ostrożnością.

C. należy wykorzystywać te technologie razem wszędzie gdzie tylko jest to możliwe.

4. Pod względem poziomu dostępności systemu, wirtualizacja serwerów powoduje że:

A. jest mniej przerw w dostępności usług spowodowanych przez awarie sprzętowe.

B. nie ma żadnego wpływu.

C. niezbędne jest zwiększenie poziomu redundancji elementów, by uniknąć jednoczesnych przerw w dostarczaniu wielu usług i aplikacji.

5. W porównaniu do klasycznego centrum danych, centrum intensywnie wykorzystujące technologie wirtualizacyjne wymaga:

A. około 25% mniej pracowników zajmujących się technicznym wsparciem serwerów i systemów operacyjnych.

B. liczba pracowników wsparcia technicznego nie ulega zmianie.

C. niezbędne jest zatrudnienie o 25% większej liczby takich pracowników.

Odpowiedzi na następnej stronie


TOP 200