Strategie przyszłości

Rosnąca złożoność ogólnoświatowych sieci teleinformatycznych i przenikanie do gospodarstw domowych coraz większej ilości komputerowo bazowanych urządzeń powodują, że klasyczne metody ich projektowania są niewystarczające. Obiecującą strategią przyszłości jest tutaj informatyczna bioorganizacja.

Rosnąca złożoność ogólnoświatowych sieci teleinformatycznych i przenikanie do gospodarstw domowych coraz większej ilości komputerowo bazowanych urządzeń powodują, że klasyczne metody ich projektowania są niewystarczające. Obiecującą strategią przyszłości jest tutaj informatyczna bioorganizacja.

Współczesny rozwój techniki wymaga nie tylko realizacji jego naturalnych celów cząstkowych, np. konstruowania coraz szybszych procesorów, ale także uwzględniania wielkich wyzwań społecznych i globalnych. Do takich można zaliczyć redukcję CO2 w ramach uwarunkowań środowiskowych czy utrzymywanie bądź tworzenie nowych miejsc pracy. Praktyka pokazuje bowiem, że te wielkie wyzwania nie zrealizują się „same”, jedynie jako skutek działania niewidzialnej ręki rynku. Ta „ręka” nie musi bowiem automatycznie prowadzić do niskiego bezrobocia czy zbilansowanych potencjałów międzypokoleniowych (relacje między realnymi płacami a bezpieczeństwem emerytalnym).

Początki bioorganizacji

I tylko pozornie te kwestie są oderwane od strategii technologicznych. Te ostatnie funkcjonują zawsze w określonym środowisku społecznym i w interesie człowieka lub przeciw niemu – jeśli rozwijają się w sposób niekontrolowany. Pytanie o zakres tej kontroli (interwencjonizmu) jest kwestią dyskusyjną, niemniej mitem byłoby skrajne stwierdzenie, że sferze techniki podobne mechanizmy są całkowicie zbędne.

Co ciekawe (nieliczni?) zwolennicy takiego podejścia powołują się chętnie na „anarchiczność Internetu”. Tymczasem właśnie Internet nie mógłby istnieć bez rozbudowanych hierarchii i precyzyjnych ustaleń, co do reguł jego funkcjonowania. Inna sprawa, że owe hierarchie często mają charakter sieciowy, a regulacje bywają bardzo elastyczne, nie w sferze standardów technicznych, ale użytkowej czy prawnej. Jeśli zatem ktoś jest zwolennikiem modnych teorii deterministycznego chaosu to w paradygmacie funkcjonowania Internetu być może znajdzie do nich wdzięczny punkt odniesienia. Ów samoregulacyjny paradygmat tworzony był rzecz jasna w początkach Internetu, w niewielkiej grupie naukowców i praktyków, którym niepotrzebny był świat polityki i prawa. Wystarczyło przekonanie, że „kod jest prawem”. Każdy, kto tej metareguły nie przestrzegał sam automatycznie wykluczał się z „plemiennej” cyberspołeczności, która obywała się bez „internetowego państwa”. W początkowej fazie rozwoju Internetu nie zastanawiano się na przykład nad tym, że ktoś może wysyłać pocztę sygnując ją nie swoim adresem. Dzisiejsze aplikacje muszą już taki problem (spam) uwzględniać, co nakłada na nie konkretne wymagania: wiarygodność danych, kompromisy między gwarancjami ich weryfikowalności i prywatności (poufności) czy przyjazne użytkowo (user friendly) zarządzanie tożsamością (biometria).

Już tylko z tych przykładów wynika, że również w sferze techniki konieczne jest definiowanie optymalnych strategii rozwojowych. Tak więc konkretne pytanie brzmi: jakie obszary badawczo-techniczne należy szczególnie uwzględnić, aby zapewnić najbardziej efektywną realizację wymienionych wcześniej celów rozwojowych? Istotną sferą zastosowań jest tu komputerowe wspomaganie czynności dnia codziennego – CAL (Computer Aided Living). Obszar ten obejmuje wszelkiego rodzaju indywidualne systemy asystenckie, np. w służbie zdrowia czy tzw. inteligentnych domach. Powszechnie znanym przykładem takich rozwiązań są samochodowe nawigatory, gwarantujące telematyczną mobilność (smart mobility) zarówno w sferze prywatnej, jak i biznesowej. I wreszcie kolejne wielkie wyzwanie CAL: robotyka, przy czym nie mówimy tu o, niemal już klasycznych, zastosowaniach przemysłowych, ale o robotach usługowych (service robot) w gospodarstwach domowych, biurach, instytucjach publicznych (np. dozór, pielęgnacja czy sprzątanie budynków).


TOP 200