Nie tylko x86

Ponieważ jednak moc przetwarzania takich układów, jak ARM, Nano lub Atom jest znacznie mniejsza w porównaniu do standardowych procesorów serwerowych jak Xeon lub Opteron, więc wykorzystujące je serwery nie są komputerami uniwersalnymi. Mogą one znaleźć zastosowanie przede wszystkim w systemach, gdzie obciążenie może zostać podzielone na dużą liczbę zadań wykonywanych niezależnie.

Popularyzacja cloud computing może istotnie przyczynić się do popularyzacji tego typu architektur, które oferują obecnie najniższy koszt w przeliczeniu na moc przetwarzania, co może być szczególnie interesujące na przykład dla dostawców usług hostingowych.

Ale potencjalne zastosowania są też inne. Tego typu serwery mogą zostać wykorzystane do przeszukiwania i analizy dużych zbiorów danych (data mining) przy wykorzystaniu oprogramowania takiego jak Apache Hadoop lub EMC Greenplum, które zawierają mechanizmy umożliwiające przetwarzanie rozproszone. Mogą one także znaleźć zastosowanie w niektórych systemach HPC.

"Obecnie są one stosowane przez webowych gigantów do analizy zachowań użytkowników na bardzo szczegółowym poziomie, czyli rejestracji jakie strony odwiedzają, jak długo przeglądają ich elementy i gdzie później przechodzą - mówi Mike Olsen, dyrektor Cloudera, firmy, która oferuje komercyjne wsparcie dla platformy Hadoop. Również niektóre banki już wykorzystują takie serwery do przeszukiwania danych dotyczących zachowań użytkowników kart kredytowych i debetowych, a następnie analizy ryzyka lub tworzenia wzorców ich aktywności" - dodaje Mike Olsen.

Choć serwery z procesorami takimi jak Atom lub ARM zużywają znacznie mniej energii od komputerów wykorzystujących standardowe układy serwerowe, ale jednocześnie mają mniejszą wydajność. “Sam pobór mocy nie ma większego znaczenia, ważna jest efektywność tzn. zużycie energii w przeliczeniu na wykonywane operacje" zwraca uwagę Andy Bechtolsheim z Arista Networks, jeden z współzałożycieli Sun Microsystems.

Oprócz tego aplikacje przeznaczone do pracy w systemach rozproszonych zwykle wymagają specjalnego zaprojektowania. "Wśród ich wad należy też wymienić ograniczoną z reguły przepustowość interfejsów I/O i pamięci podręcznej cache" mówi Bill Mannel, wiceprezes SGI.

"Presja na redukcję kosztów powoduje jednak, że firmy zaczynają szukać alternatywnych, tańszych rozwiązań. Budowa współczesnych centrów danych są bardzo kosztowna m.in. dlatego, że wymaga instalacji drogich serwerów. Dlatego firmy starają się zrobić co tylko możliwe by ograniczyć wydatki związane z zakupem i instalacją kolejnych nowych komputerów. I właśnie platformy takie jak Hadoop przychodzą im z pomocą" odpowiada na taką krytykę Andrew Feldman, SeaMicro CEO.

Standardowa architektura dostępna dla każdego

Standaryzacja systemów x86 powoduje, że najnowsze procesory i platformy x86 są dostępne nie tylko dla światowych potentatów, ale również mniejszych lokalnych producentów, którzy mogą je wykorzystać w swojej ofercie. Z ekonomicznego punktu widzenia, pozycja tych drugich jest słabsza, bo nie mogą korzystać z tak wysokich rabatów związanych z masowymi zamówieniami elementów, jak duże firmy. Ale jednocześnie mają możliwości szybszej reakcji na nowinki techniczne, a także nie ponoszą tak wysokich kosztów utrzymania infrastruktury korporacyjnej.

W praktyce okazuje się, że takie firmy, jak aktywne w Polsce AB, Action, Thomas Krenn lub Komputronik Biznes mogą skutecznie konkurować z potentatami na rynku serwerowym. I dotyczy to nie tylko komputerów adresowanych do segmentu MSP, ale jak udowodnił Action budując superkomputer Galera i dostarczając serwery do CERN, również dużych zaawansowanych systemów obliczeniowych.


TOP 200