Świat bez Moore'a

Od pewnego czasu jednak zauważam pewną prawidłowość w informatyce: wzrastająca objętość danych oraz coraz większa złożoność aplikacji konsumuje przyrost mocy wynikający z postępu technologicznego, którego najwyraźniejszym przejawem jest tzw. prawo Moore'a. W oryginale dotyczy ono poziomu upakowania tranzystorów, ale aktualnie podaje się je w następującej formie: moc obliczeniowa dostępna za tę samą cenę podwaja się średnio co 18 miesięcy.

Od pewnego czasu jednak zauważam pewną prawidłowość w informatyce: wzrastająca objętość danych oraz coraz większa złożoność aplikacji konsumuje przyrost mocy wynikający z postępu technologicznego, którego najwyraźniejszym przejawem jest tzw. prawo Moore'a. W oryginale dotyczy ono poziomu upakowania tranzystorów, ale aktualnie podaje się je w następującej formie: moc obliczeniowa dostępna za tę samą cenę podwaja się średnio co 18 miesięcy.

Zabawy w "co by było, gdyby" to raczej domena pisarzy science i political fiction niż felietonistów. Ale spróbujmy dziś zastanowić się: co by było, gdyby prawo Moore'a przestało obowiązywać? W sumie, inżynierowie innych specjalności (budowlańcy, elektrycy, chemicy, mechanicy) nie mają analogicznego przywileju i jakoś sobie radzą. No więc, co by było?

Miejsce myślenia ukierunkowanego na "prościej, przyjaźniej, pełniej, bardziej elegancko" zajęłoby myślenie "szybciej, ciaśniej, taniej". Najpierw nastąpiłby boom na urządzenia archiwizujące. Wiele znanych mi przedsiębiorstw nie archiwizuje danych w celach innych niż w celach bezpieczeństwa - zakłada, że pojemność typowych dysków rośnie szybciej niż gigabajty w ich systemach i zawsze można po prostu "dostawić nowe skrzynki". Takie myślenie musiałoby się skończyć.

W domach do łask wróciłyby narzędzia takie jak nieodżałowanej pamięci Stacker (ukradziony swego czasu przez Microsoft), kompresujące w locie dane i pozwalające na zdublowanie pojemności typowego dysku - kosztem prędkości zapisu i odczytu. Prawdziwym przemysłem stałoby się "podkręcanie" komputerów (overclocking), dziś będące domeną niewielkiej w sumie grupy fanów. Po Internecie krążyłyby programy pozwalające w sposób superwiarygodny i obiektywny pomierzyć rzeczywistą wydajność komputera, zaś producenci w swoich reklamach nie podkreślaliby - tak jak dziś - urody zestawów i swojej dobrej marki, a wynik na standardowej skali benchmarkingowej.

Do łask wróciłyby tekstowe interfejsy użytkownika. Okienka, jako zużywające kosztowną moc obliczeniową oraz pamięć, poszłyby w niepamięć albo byłyby swoistą ekstrawagancją - jak Rolex na ręce. Przeprosilibyśmy się z tekstowym promptem i poleceniami wpisywanymi "z palca" - co akurat nie przeszkadzałoby mi wcale, bo do dziś zdarza mi się po chwili bezowocnego manipulowania ikonami uruchomić unixowego shella i zrobić co trzeba za pomocą paru prostych komend.

Ale prawdziwa rewolucja zdarzyłaby się w inżynierii oprogramowania. W tej chwili cały system kształcenia informatyków ukierunkowany jest na powiększanie funkcjonalności rozwiązań informatycznych. Nagle do łask wróciłyby inne zagadnienia. Renesans przeżyłaby optymalizacja algorytmów pod względem szybkości i zajętości, teraz interesująca niemal garstkę twórców motorów baz danych, systemów operacyjnych oraz narzędzi programistycznych. Znaczenie straciłyby technologie szeroko stosowane dzisiaj: interpretery, środowiska oparte na maszynie wirtualnej, dynamiczne linkowanie itp. Najlepszy kod byłby kodem kompilowanym i to najlepiej z niskopoziomowego języka programowania, jak C lub assembler.

Brzmi interesująco czy strasznie? W każdym razie, proszę się przygotowywać. No, może nie siebie, ale swoje dzieci. Według wyliczeń Raya Kurzweila, znanego futurologa, prawo Moore'a przestanie obowiązywać pod koniec drugiej dekady XXI stulecia, czyli już za kilkanaście lat. Oczywiście, o ile nie zdarzy się jakiś wielki przełom technologiczny, dający "napęd" na następnych kilkadziesiąt lat - czego w sumie i sobie, i Państwu serdecznie życzę.


TOP 200