Serwerowe ewolucje

W krótkim okresie producenci serwerów skupią się na rynku SMB. Na dłuższą metę będą chcieć ponownie zaproponować atrakcyjne nowości dużym klientom.

W krótkim okresie producenci serwerów skupią się na rynku SMB. Na dłuższą metę będą chcieć ponownie zaproponować atrakcyjne nowości dużym klientom.

Według IDC w ub.r. sprzedano w Polsce ok. 24 tys. serwerów wszystkich klas, co oznacza 15-proc. wzrost w porównaniu z rokiem 2002. Jednocześnie jednak nastąpił 23-proc. spadek popytu na systemy RISC, a udział komputerów platformy x86 wzrósł aż do 94%. Są to tendencje podobne do obserwowanych na świecie, ale polski rynek ma też własne cechy charakterystyczne: wyjątkowo wysoki udział platformy x86 oraz powolna absorpcja nowinek, jak serwery blade czy komputery z 64-bitowymi procesorami AMD Opteron. Sprzedaż nowatorskich konstrukcji w ub.r. była pomijalnie mała.

Paweł Wójcik z Fujitsu Siemens Computers potwierdza, że w ub.r. największy popyt dotyczył serwerów jedno- lub dwuprocesorowych. Ale jednocześnie zauważa, że rośnie zainteresowanie systemami klastrowymi wykorzystującymi architekturę SAN i rozwiązaniami NAS. Popyt na serwery blade natomiast wciąż jest mały. "Na powszechne zastosowania architektury blade trzeba będzie jeszcze trochę poczekać" - mówi.

Również Michał Gawryś z IBM uważa, że największy wzrost popytu dotyczy serwerów aplikacyjnych i bazodanowych dla średnich firm. "Duże serwery unixowe były kupowane głównie przez klientów już mających podobne systemy w ramach rozwijanych od lat projektów. Można jednocześnie zauważyć, że praktycznie nie stosuje się już serwerów unixowych w systemach oddziałowych".

Jeśli chodzi o architekturę blade, to Michał Gawryś sądzi, że "w tym roku pojawi się znaczący wolumen sprzedaży, a za kilka lat będzie to główny nurt rynku serwerów korporacyjnych platformy intelowskiej". Zobaczymy.

Podobne są też opinie Łukasza Świątka z Sun Microsystems Poland. "W 2004 r. największy wzrost sprzedaży będzie dotyczył tanich systemów klasy workgroup" - twierdzi. Odzwierciedleniem tej sytuacji jest też silna pozycja mniejszych lokalnych firm, które, wykorzystując standardowe elementy, składają komputery i wprowadziły na rynek co piąty sprzedany serwer. Warto zauważyć, że dotyczy to nie tylko małych serwerów, ale również bardziej zaawansowanych rozwiązań. Na przykład Optimus zbudował na Politechnice Gdańskiej superkomputer wyposażony w 256 procesorów Itanium 2, który znalazł się na 231. miejscu listy TOP 500 klasyfikującej największe komputery na świecie.

Skalowanie przez scalanie

Według raportu opublikowanego przez Gartner Group w najbliższych latach nastąpią stopniowe, ale zasadnicze zmiany na rynku systemów serwerowych. Coraz poważniejszym graczem we wszystkich segmentach rynku staje się Intel. Być może w najbliższych latach firma zdominuje również rynek superkomputerów.

Do najważniejszych zmian technologii natomiast należy zaliczyć rozwój systemów umożliwiających efektywne skalowanie wydajności i zasobów. Dotyczy to m.in. technologii wirtualizacji i architektur modułowych (np. serwery blade), które będą wypierać z rynku klasyczne systemy SMP.

Serwery i systemy pamięci masowych rozwijano dotychczas jako technologie współpracujące, lecz w dużej mierze niezależne od siebie. Potencjalne korzyści z ich integracji są atrakcyjne, dlatego proces integracji obu technologii już się rozpoczął. Można oczekiwać, że za kilka lat architektura centrów danych zostanie w znacznej mierze zunifikowana.

Najważniejszą technologią, która umożliwi integrację, jest wirtualizacja. Nie jest to nowa koncepcja - już obecnie w systemach pamięci masowych i serwerach technologia ta jest wykorzystywana. Połączone systemy obliczeniowe i pamięciowe będą znacznie łatwiejsze do zarządzania. Wirtualizacja zaś pozwoli zapewnić systemom odporność na awarie i ułatwi dynamiczne przydzielanie zasobów aplikacjom.

Według raportu opublikowanego przez Gartner Group wykorzystanie systemów wirtualizacji zasobów serwerowych umożliwia osiągnięcie 25-proc. oszczędności w wydatkach na sprzęt, oprogramowanie i koszty zarządzania systemem. Zdaniem analityków pierwsze systemy zintegrowane zaczną pojawiać się na rynku w 2005 r., ale dopiero w 2007 r. staną się standardowym elementem ofert głównych producentów.

Prace konsolidacyjne już trwają. Dobrym przykładem może być przejęcie przez EMC firmy VMware, którego rezultatem ma być wprowadzenie do oferty EMC uniwersalnej platformy konsolidującej funkcje wirtualizacji oraz zarządzania zasobami i infrastrukturą systemów. Intensywne prace nad zunifikowaną wirtualizacją prowadzą także IBM, HP, Sun Microsystems, Brocade, McData, Veritas Software oraz Computer Associates.

Największym problemem może być brak jednolitego standardu wymiany danych między urządzeniami a oprogramowaniem pochodzącymi od różnych producentów. W ramach systemów pamięci masowych istnieje standard SMI-S, jednak nie obejmuje on zasobów serwerowych. Wielu producentów deklaruje jednak chęć opracowania standardowej specyfikacji API. Być może zadania takiego podejmie się organizacja DMTF (Desktop Management Task Force), ale na rezultaty i tak trzeba będzie zaczekać co najmniej 3, 4 lata.

Superkomputer w garażu

Superkomputer Thunder zainstalowany ostatnio w Lawrence Livermore National Laboratory w Stanach Zjednoczonych, który najprawdopodobniej zajmie drugie miejsce na liście największych komputerów na świecie, został zbudowany przez niewielką firmę California Digital zatrudniającą zaledwie 55 pracowników.

Superkomputer składa się z klastra zawierającego 1024 czteroprocesorowe serwery z układami Itanium 2 i jest dobrym przykładem nowych możliwości i tendencji, jakie daje standaryzacja. Zamiast monolitycznych konstrukcji wyposażonych w firmowe układy i oprogramowanie, nawet względnie małe firmy mogą obecnie oferować potężne superkomputery składające się z typowych dostępnych na rynku elementów i podzespołów.

Większość tego typu kontraktów wciąż trafia do potentatów, takich jak IBM, Hewlett-Packard, Cray Research lub NEC, ale wyraźnie wzrasta konkurencja i liczba projektów realizowanych przez małe firmy. Oprócz California Digital można tu wymienić Linix Networx, która buduje dwa klastry dla Los Alamos National Laboratory (składające się z 2816 i 512 procesorów Opteron), lub choćby polski Optimus, który zbudował największy w Polsce superkomputer (256 procesorów Itanium 2) na Politechnice Gdańskiej.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200