Platforma z profilem

Za kilka lat słowo ''platforma'' nie będzie uzupełniane określeniem technicznym, lecz biznesowym - związanym z dziedziną aplikacji, którą będzie można na niej uruchomić z dużą wydajnością.

Za kilka lat słowo ''platforma'' nie będzie uzupełniane określeniem technicznym, lecz biznesowym - związanym z dziedziną aplikacji, którą będzie można na niej uruchomić z dużą wydajnością.

Era wielkich platform sprzętowych dobiega powoli końca. Ich miejsce zajmują relatywnie proste, tanie konstrukcje oparte na standardowych komponentach. Standardowe serwery i platformy sieciowe oferują moc obliczeniową za niewielki ułamek tego, co trzeba zapłacić za większe, bardziej skomplikowane konstrukcyjnie rozwiązania. Gdy pojawia się awaria, standardowy element zastępuje się innym - identycznym i równie tanim.

Wraz z przyrostem infrastruktury oszczędności przestają być jednak oczywiste - koszt i czas, jakie trzeba poświęcić na zarządzanie rozproszonym środowiskiem, stają się coraz bardziej znaczące. Poza tym wychodzi na jaw, że to, co dziesięć serwerów dwuprocesorowych liczy z wielkim wysiłkiem, zajmując miejsce w serwerowni i skutecznie podgrzewając w niej atmosferę, może równie dobrze wykonać jedno niewielkie urządzenie z dedykowanym procesorem. Jakie będą platformy obliczeniowe przyszłości?

Bliżej aplikacji

Na pewno będą bardziej dostosowane do zadań, jakie przyjdzie im wykonywać. Przyszłe aplikacje będą coraz bardziej niszowe i skomplikowane, tak jak procesy biznesowe, które przyjdzie im obsługiwać. Standardowe platformy umożliwią ich uruchomienie, ale by osiągnąć zadowalającą użytkowników aplikacji wydajność standardowe konstrukcje pomnożone przez X prawie na pewno nie wystarczą, a w każdym razie nie będą atrakcyjne pod względem stosunku wydajności do ceny.

Potrzebna będzie dodatkowa inteligencja, a także sprzętowa akceleracja najbardziej obciążających zadań. Standaryzacji będzie więc towarzyszyć specjalizacja. O tym, jak mogą wyglądać platformy obliczeniowe przyszłości, można próbować zgadywać, patrząc na koncepcje rozwijane obecnie przez młode, innowacyjne firmy, choć na pewno nie każda z nich znajdzie drogę do korporacyjnych centrów danych.

Jednym z trendów jest wyposażanie standardowych platform sprzętowych w specjalizowane karty rozszerzeń, dzięki którym serwery staną się urządzeniami trzymającymi pieczę nad zgrubnie nakreślonymi funkcjami: operacjami I/O, przerwaniami sprzętowymi, priorytetami i uprawnieniami procesów, zarządzaniem pamięcią, zapewnianiem bezpieczeństwa i dostępności przetwarzanych danych itp.

Przykłady takich rozwiązań istnieją od dawna. Procesory serwerów plików nie zajmują się obliczaniem funkcji XOR na potrzeby nadmiarowego zapisu w macierzach RAID - tym zajmują się specjalizowane procesory na dedykowanych kartach kontrolerów. Podobnie jest z nawiązywaniem bezpiecznych połączeń w tunelach SSL lub IPsec, akceleracją TCP, iSCSI, CIFS i NFS oraz oczywiście XML, a także karty z procesorami przyspieszającymi wykonywanie kodu Java. Stąd już tylko krok do przyspieszania konkretnych algorytmów aplikacji.

Analiza i nie tylko

Obszarem aplikacyjnym, który doczekał się dedykowanych rozwiązań sprzętowych, jest analiza danych. Szlaki przetarła należąca do koncernu NCR firma Teradata. Jej systemy analityczne, oferowane początkowo głównie na potrzeby analizy billingu dla największych operatorów telekomunikacyjnych, doczekały się wielu branżowych braci.

Oprócz zaawansowanych aplikacji analitycznych dla konkretnych branż i obszarów biznesu Teradata dostarcza specjalnie zaprojektowane serwery z procesorami Intela i własnym klonem systemu Unix. Serwery są wyposażone w superszybkie złącza i mogą działać w klastrach liczących setki węzłów, stanowiąc jedno logicznie spójne rozwiązanie, zdolne do realizacji analitycznych zapytań ad hoc do niezagregowanych danych.

Rozwiązanie służące temu samemu celowi, lecz o innej architekturze, stworzyła firma Netezza. W jednej szafie przemysłowej umieszczane są wszystkie elementy systemu: serwery bazodanowe, serwery aplikacyjne oraz serwery obsługujące podsystem dyskowy. Dedykowane oprogramowanie optymalizuje przetwarzanie i komunikację między nimi.

Wyróżnikiem rozwiązania Netezza Performance Server jest połączenie zoptymalizowanej pod kątem zastosowań analitycznych bazy danych, optymalizacji zapytań SQL oraz ich kompilacji. Przyspieszenie jest osiągane także przez rozłożenie danych na wiele serwerów x86 zajmujących się wyłącznie przetwarzaniem porcji danych przechowywanych na ich lokalnych dyskach. Serwery te komunikują się ze sobą przez zwielokrotnione łącza Gigabit Ethernet.

Kolejne inicjatywy w tej dziedzinie są tuż tuż. Finansowana przez Larry'ego Ellisona, prezesa Oracle, firma 3Par skupiła się na dostarczeniu elementu najbardziej spowalniającego działanie wszelkich aplikacji - systemów pamięci masowych. Równoległe skalowanie pojemności i mocy obliczeniowej w powiązaniu z dużymi buforami, szybką komunikacją i inteligentnym zarządzaniem ruchem danych pozwalają zwiększyć wydajność każdej aplikacji pracującej z dużymi wolumenami danych.

Równolegle inne firmy rozwijają warstwy logiki pozwalające na zaawansowane wykorzystanie dowolnego sprzętu. Firma SilverCreek Systems postawiła sobie za cel opracowanie wydajnej platformy integracyjnej. Wydajność nie jest przez nią rozumiana jako więcej procesorów, lecz jako proces zarządzania transformacją danych w taki sposób, by systemy potrzebujące danych z różnych źródeł jednocześnie miały do nich dostęp bez konieczności wyczekiwania na wykonanie się sążnistych zapytań i ich późniejszego scalania.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200