Superkomputerowa rzeczywistość

Powszechność komputerowych technologii w obszarze biurowym czy domowym powoduje, że branżowymi maszynami informatycznej "Formuły 1" interesują się głównie specjaliści. Jaka więc przyszłość czeka superkomputery?

Powszechność komputerowych technologii w obszarze biurowym czy domowym powoduje, że branżowymi maszynami informatycznej "Formuły 1" interesują się głównie specjaliści. Jaka więc przyszłość czeka superkomputery?

Komu potrzebne są superkomputery? Tak prowokacyjnie postawione pytanie, nawet informatyczny laik mógłby skwitować pobłażliwym wzruszeniem ramion: skoro konstruuje się supermaszyny liczące, to widocznie są one niezbędne. Spróbujmy jednak bardziej rzeczowo odpowiedzieć na tak sformułowaną kwestię. A nie jest ona bagatelna w kontekście optymalizacji całego rozwoju cywilizacyjnego. Superkomputery są bowiem urządzeniami drogimi, często używanymi do zastosowań specjalistycznych, i to nie zawsze komercyjnych, więc nie można tu liczyć na decyzje podejmowane niewidzialną ręką rynku. Tymczasem potrzeby ludzkości są z reguły nieograniczone, zaś możliwości ich zaspokajania podlegają limitom. Odwiecznym problemem jest więc optymalne zbilansowanie tych wielkości. Zadanie niełatwe, a nieustannie podejmowane różne próby jego rozwiązywania, budzą nieraz poważne wątpliwości.

Widać to wyraźnie np. w sferze badań kosmicznych. Niedawno sama NASA przyznała, że jednostronne forsowanie załogowych misji kosmicznych było błędem, i to nie tylko w odniesieniu do lotów na Księżyc, ale częściowo także w obszarze promów kosmicznych. W każdym razie ciekawość nie może być jedynym motywem usprawiedliwiającym wielkie inwestycje badawcze. Wiedziała już o tym Izabela Kastylijska (Izabela I Katolicka) – gdyby nie pieniądze, Santa Maria, Pinta i Ninja nigdy nie opuściłyby Kadyksu, wypływając na poszukiwanie Nowego Świata. Tam, gdzie podstawą przedsięwzięcia nie był rzetelnie sporządzony kosztorys, pozostaje niesmak. Tak jest z bilansem kosztownych wypraw Apollo sprzed 40 lat – za 30 miliardów "starych" dolarów przywieziono na Ziemię parę taczek księżycowych kamieni, co można było znacznie taniej osiągnąć wysyłając tam roboty. Bajanie o "odpryskowych" wynalazkach, jakie przy okazji zrobiono jest zwykłym "mydleniem oczu" – patelniany teflon czy lepsze kombinezony dla strażaków też dałoby się zrobić za ułamek roztrwonionych sum.

Stajemy tu przed dylematem. Najskromniej skalkulowany, jeden lot na Marsa ma kosztować tyle, ile co najmniej setka, nierzadko wieloletnich, bezzałogowych misji, nawet do odległych rejonów Układu Słonecznego. Co wybrać, jeśli w grę wchodzą znaczne sumy z publicznego budżetu? Społecznego problemu nie ma, gdy znajdą się prywatni sponsorzy czy wizjonerzy, wchodzący na najwyższą górę "bo jest", lub gotowi "za każde pieniądze" wykopać najgłębszą dziurę w Ziemi. Cechy takiego pasjonata posiadał Seymour Cray. Gdyby w informatyce dawano Noble, ta nagroda należałaby mu się za wynalazek superkomputera.

Co po teraflopsach?

Uchodzący za pierwszy superkomputer CDC6600 (1963 rok, 3 MIPS), został wykonany według projektu Craya, a nazwisko inżyniera stało się w następnej dekadzie niemal synonimem superkomputera. W 1976 roku pojawił się Cray-1 o mocy ok. 100 MFLOPS (FLoating point Operations Per Second), a w połowie lat 80. światło dzienne ujrzał Cray-2 (4 procesory). Zwłaszcza to ostatnie urządzenie imponuje swoją mocą 2 GFLOPS, co robi wrażenie nawet w obliczu możliwości komputerów współczesnych. Oczywiście, nie idzie tu o całkowitą moc konfiguracji. W przypadku obecnie drugiej maszyny świata, IBM-owskiego BlueGene/L (212992 procesory), wynosi ona ok. 500 TFLOPS czyli 250 tysięcy razy więcej, ale współczynniki mocy obliczeniowej przypadającej na procesor są porównywalne i wynoszą odpowiednio: 500 i 2300 MFLOPS. Dodajmy jedynie, że według ostatniego rankinguhttp://www.top500.org z czerwca 2008, najszybszym komputerem jest Roadrunner IBM, który jako pierwszy przebił barierę petaflopsową, osiągając moc 1026 TFLOPS.

Jednocześnie podane liczby potwierdzają w szerokich ramach empiryczne prawo Moore’a wykładniczego wzrostu gęstości upakowania mikroelementów w układzie scalonym, co przekłada się na podobną dynamikę całej branży informatycznej. Nie widać także na horyzoncie przeszkód, które miałyby ową regułę unieważnić. Nie ma bowiem powodów, aby przypuszczać, że "gruboziarnistość" elektronu zablokuje w końcu postępy miniaturyzacji. Już dziś w laboratoriach tworzone są zręby następczyni elektroniki – spinotroniki, wykorzystującej wewnętrzne właściwości elektronu, czyli jego spin (moment pędu). W ten sposób może dokonać się przejście od nano- do pikoelektroniki. Skoro więc już dziś mówimy o biliardzie (peta) operacji na sekundę, to warto przypomnieć przedrostki większych jednostek miar: eksa, zetta, jotta czyli odpowiednio trylion, tryliard i kwadrylion. Ale jak to w ogóle możliwe, że ten superkomputerowy postęp się dokonuje? W końcu, jak długo można próbować budować coraz szybsze maszyny? Owszem, twórcy superkomputerów szybko dostrzegli zalety systemów wieloprocesorowych, ale skoro przyrost mocy na procesor nie jest imponujący, to po co łączyć ze sobą coraz większe ilości procesorów? Od dziesięcioleci znane jest przecież prawo Amdahla (1967 rok) pokazujące, że istnieją granice złożoności, poza którymi opłacalność zwiększania ilości procesorów w konfiguracji szybko zaczyna maleć. W każdym problemie wymagającym obliczeń można wyróżnić część sekwencyjną, której nie da się "zrównoleglić". Innymi słowy mówiąc: paralelizacja problemu nie przyspiesza tego krytycznego czasowo fragmentu algorytmu, co powoduje, że od pewnej ilości procesorów jej zwiększanie jest technicznym marnotrawstwem.

Prawo Gustafsona

Tymczasem nauka, a zwłaszcza matematyka i jej informatyczne zastosowania, ma charakter aksjomatyczno- dedukcyjny. Oznacza to przyjmowanie "na wiarę" pewnych dogmatów, na podstawie których tworzymy gmach wiedzy konstrukcjami typu: założenie-teza-dowód. W ten sposób, teoretycznie, można udowodnić "wszystko". Niemniej każda struktura teoretyczna poddawana jest też weryfikacji praktycznej. Ale na każdy aksjomat może być inny aksjomat, na każdą regułę – inna reguła. Wiedział o tym inny Amerykanin – John. L. Gustafson – i zauważył, że Amdahl rozważa jedynie pojedyncze problemy o zadanej wielkości. Co stanie się jednak, gdy zamiast jednego problemu, liczonego szeregowo lub równolegle, zechcemy także zwiększać liczbę problemów? Okaże się wówczas, że zwiększanie ilości procesorów ma sens.

W informatycznym cyklu rozwojowym sprzęt pełni rolę pierwotną w relacji do oprogramowania, zaś softwarowe narzędzia muszą powstać wcześniej niż tworzona nimi aplikacja. Trudno tworzyć partytury dla orkiestr, złożonych z nieistniejących instrumentów. Podobną niemożliwością jest pisanie konkretnych programów dla komputerów przyszłości. Zatem rozwój sprzętu musi wyprzedzać rozwój informatycznego oprogramowania. Rozwój informatyki, przebiegający właśnie wedle schematu: sprzęt-oprogramowanie-zastosowania, wymaga owego "zapasu mocy". Bez niego, posługując się porównaniem motoryzacyjnym, nie da się dokonać informatycznego przyspieszenia w odpowiednim momencie. Gustafson formułując swoje prawo (1988 rok) zauważył, że człowiek nie tylko potrzebuje komputerów dla rozwiązywania istniejących problemów, ale jest w stanie kreatywnie działać według innej zasady: daj mi tylko nowe narzędzie, a ja już znajdę dla niego zastosowanie.

Jego prawo koresponduje także z ekonomią sieciową (network economy) i tzw. "pochwałą głupoty" (dumb power) przekładającą się na rozwój superkomputerów wirtualnych, tj. przetwarzania rozproszonego (distributed processing) i kratowego (grid). Ekonomia sieci bazuje na sprzężeniu między zmniejszaniem się mikrokosmosu układów scalonych i eksplozją telekosmosu połączeń, co prowadzi do powstania Wszechnetu (evernet) o planetarnym zasięgu. Ta dynamiczna struktura może być interpretowana właśnie jako rodzaj superkomputera, dzięki wcześniej wymienionym technologiom, z wirtualizacją na czele.

Superkomputer dla każdego Czy oznacza to zmierzch klasycznych superkomputerów opartych na paradygmacie "crayowskim"? Z pewnością nie. Stają się one częścią globalnej Sieci, migrując od rozwiązań wyspowych (stand alone) do zintegrowanych teleinformatycznie węzłów przetwarzania dużej mocy. Z kolei architektury SOA (Service Oriented Architecture) powodują, że z aplikacyjnego punktu widzenia superkomputery stają się coraz bardziej "niewidzialne". Dla użytkownika przestaje mieć znaczenie, gdzie fizycznie znajdują się pamięci operacyjne, dyskowe czy inne zasoby konfiguracji (procesory), niezbędne do wykonania określonego zadania. Liczy się zdefiniowana funkcjonalność i biznesowe modele usługodawców (provider) naliczających koszty za jej udostępnienie. W końcu, jeśli potrzebujemy w domu prądu z gniazdka elektrycznego, też nie musimy kupować od razu całej elektrowni. Rozwijając logikę tej metafory w kategoriach IT, możemy dostrzec wyraźną transformację typu PC . NC (Network Computer).

Nasze biurkowe czy mobilne komputery bądź ich odpowiedniki (organizery, palmtopy, telefony komórkowe) stają się "głupimi" terminalami inteligentnego i wszechobecnego, internetowego superkomputera. W tej megakonstrukcji teleinformatycznej można rozpoznać naturalny paradygmat bioorganizacyjny, nasuwający skojarzenia np. z systemem nerwowym człowieka. Tu też mamy proste komórki, w zależności od potrzeb grupujące się w ich specjalizowane zespoły (tkanki), tworzące z kolei narządy (np. płuca) i wreszcie ich układy (np. oddechowy). Otwartą kwestią pozostaje pytanie: czy superkomputerowy Internet doprowadzi do powstania nowego rodzaju inteligencji i świadomości? Jedno jest pewne – opisywany fenomen daje nam szanse rozwojowe tak wielkie, że trudne jest nawet określenie wszelkich możliwości, jakie otwierają się przed nami.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200