Cel: megakomputer
-
- 16.10.2013
Zaawansowane analizy i potrzeba elastycznego zarządzania zasobami serwerowymi sterują rozwojem architektur przetwarzania danych, które można nazwać megakomputerami.

Podział i scalanie
Większość problemów biznesowych „lubi” wydajne środowiska z dużym zapasem zasobów. Wspomniany Sun w najlepszym okresie swojej działalności zarobił krocie na dużych serwerach SMP, które duzi dostawcy usług w rodzaju Ebay wykorzystywali jako serca swoich środowisk e-commerce. Duże platformy SMP były wydajne i łatwe w zarządzaniu, ale relatywnie drogie, dlatego producenci zaczęli poszukiwać sposobów, by choć część korzyści zrealizować za pomocą bardziej standardowych platform. Tak w pierwszej połowie lat 2000 powstały pierwsze systemy kart serwerowych.
Zaletą platform blade było łatwe zarządzanie, a głównie szybsza wymiana danych niż między serwerami tradycyjnymi. Obecne konstrukcje tego typu są bardzo dojrzałe – do tego stopnia, że kilku producentów umożliwia łączenie ich w jedno urządzenie logiczne, na którym można uruchomić jeden system operacyjny. Kilka czy kilkanaście serwerów jako jeden serwer, zwirtualizowany czy nie, ewentualnie wydajny klaster, to dobra propozycja dla zwykłych firm. Są jednak firmy, modele biznesowe i potrzeby, dla których to zdecydowanie za mało.
Równoległe obliczenia
Pierwszym zastosowaniem okazały się wydajne obliczenia na dużą skalę. Jeśli superkomputery budowane są na zamówienie, to głównie dlatego, że wydajna komunikacja między węzłami wymaga wyjątkowej inżynierii. Na skutecznym rozwiązywaniu tych problemów wyrosły swego czasu Cray oraz specjalizowane działy IBM i Fujitsu, a także niszowe firmy sieciowe w rodzaju Myricom czy Arista Networks.