Centra danych zwirtualizowane i w chmurach

Nowe koncepcje procesorów serwerowych

Producenci procesorów systematycznie opracowują i wprowadzają do sprzedaży nowe generacje procesorów serwerowych. Jeśli chodzi o najpopularniejsze na rynku układy platformy x86, to w 2011 r. na rynek wchodzą procesory wykorzystujące architektury Intel Sandy Bridge oraz AMD Bulldozer. Sprzedaż serwerów z układami RISC nieco spada, ale zarówno IBM, jak i Oracle nie rezygnują z rozwijania platform Power i SPARC. Dotyczy to również platformy EPIC Itanium.

Centra danych zwirtualizowane i w chmurach
Najbardziej widoczna jest konkurencja w zakresie zwiększania liczby zintegrowanych w jednym procesorze jednostek CPU, ale również zmniejszania poboru mocy i wprowadzania nowych funkcji, związanych m.in. z bezpieczeństwem oraz wspomaganiem wirtualizacji. W nowych procesorach integrowane są kontrolery pamięci, układy graficzne i szyfrujące, a więc poza uniwersalnymi jednostkami obliczeniowymi pojawia się coraz więcej elementów specjalizowanych, które jeszcze niedawno były układami zewnętrznymi.

Warto tu podkreślić znaczenie wirtualizacji. Już obecnie serwery nie przystosowane do pracy w systemach zwirtualizowanych stają się rzadkością. Według prognoz firmy analitycznej TheInfoPro, ponad 50% instalowanych obecnie nowych serwerów stanowią jednostki wirtualne, a w 2012 r. będzie to aż 80%. W praktyce oznacza to, że już w przyszłym roku wszystkie nowe serwery będą elementem środowisk zwirtualizowanych, bo pozostałe 20% będą to fizyczne, specjalizowane serwery pracujące w środowiskach, gdzie wirtualizacja nie daje korzyści, np. takich jak aplikacje czasu rzeczywistego, lub przeznaczone do szybkiego przeszukiwania rekordów w bazach danych.

Jeśli chodzi o fizyczną architekturę serwerów, to od niemal 10 lat na rynku dominują trzy podstawowe rozwiązania: serwery stelażowe, kasetowe oraz wykorzystujące obudowy wolno stojące. Najpopularniejsze są wciąż obudowy stelażowe, choć mają silną konkurencję ze strony systemów kasetowych.

Architektura stelażowa to w praktyce zestaw niezależnych serwerów z dodatkowymi, zainstalowanymi w 19" szafie przełącznikami, które sterują przepływem danych między komputerami, pamięciami masowymi i systemami zewnętrznymi. Natomiast architektura kasetowa ma znacznie bardziej zintegrowaną konstrukcję, umożliwiającą eliminację powtarzających się standardowych elementów serwerów, takich jak zasilacze, systemy chłodzenia, interfejsy I/O, pamięci masowe, i zastąpienie ich elementami wspólnymi, zintegrowanymi w obudowie. Systemy kasetowe mogą być bardzo efektywnym rozwiązaniem przede wszystkim w infrastrukturze wykorzystującej wiele serwerów. Z reguły są też względnie łatwe w dopasowaniu do wymagań użytkownika, bo moduły serwerowe, przełącznikowe lub pamięci masowych mogą być instalowane niezależnie, tworząc optymalną do zastosowań i względnie łatwą w modyfikacji konfigurację.

Natomiast rynek małych serwerów w klasycznych obudowach wolno stojących jest wciąż względnie stabilny i choć trudno oczekiwać dynamicznych wzrostów, według ocen specjalistów jeszcze przez wiele lat będzie popyt na tego typu maszyny.

Raport o wirtualnych i fizycznych serwerach

Vkernel przeprowadziła badania, z których wynika, że użytkownicy oprogramowania VMware przeciętnie konfigurują na jednym fizycznym serwerze 12,5 wirtualnych maszyn. Firma badała przez 8 miesięcy 2500 wdrożeń oprogramowania VMware i przeanalizowała w tym czasie pracę 550 tys. wirtualnych maszyn. Przeciętny użytkownik ma 18 fizycznych i 225 wirtualnych serwerów. Okazuje się, że w systemach wykorzystujących 10 lub mniej serwerów fizycznych średnio uruchamianych jest w każdym 20 maszyn wirtualnych. Natomiast użytkownicy 25-100 serwerów fizycznych konfigurują na każdym z nich dużo mniej wirtualnych maszyn (przeciętnie 10). Utrzymanie jednej wirtualnej maszyny przez 3 lata kosztuje użytkownika ok. 1500 USD. Im więcej wirtualnych maszyn pracuje w fizycznym serwerze, tym mniejszy jest ten koszt i spada on do poziomu ok. 1000 USD.


TOP 200