Nieobliczalna ekonomia

Dostępność obliczeniowa jest kwestią, której nie wolno pominąć w sporze o optymalny model gospodarki.

Dostępność obliczeniowa jest kwestią, której nie wolno pominąć w sporze o optymalny model gospodarki.

Oskar Lange, sławny teoretyk gospodarki socjalistycznej, spierał się z ekonomistami orientacji liberalnej o to, co jest lepszym regulatorem gospodarki: wolny rynek czy centralne planowanie. Gdy w trzeciej dekadzie sporu pojawiły się na świecie komputery, O. Lange nabrał przekonania, że to on definitywnie w tym sporze zwyciężył. Traktował bowiem wolny rynek jedynie jako instrument kalkulacyjny, służący do obliczania prawidłowych cen, czyli takich, które zapewniały równowagę podaży i popytu. Nie przeczył, że rynek z tej roli się wywiązuje, lecz powoli i z błędami. Tymczasem komputer w Centralnej Komisji Planowania wyliczy bezbłędnie "w jednej sekundzie" (własny zwrot O. Langego) to, co rynek wyznaczałby z właściwą sobie ślamazarnością.

Z drugiej strony O. Lange rozumiał, że moc obliczeniowa komputerów nie zawsze sprosta złożoności gospodarki, dopuszczał więc pomocniczą rolę rynku w regulowaniu na bieżąco równowagi ekonomicznej. Upatrywał natomiast absolutnej przewagi uzbrojonego w komputer centralnego planisty w rozwiązywaniu długofalowych problemów wzrostu gospodarczego.

Słabości rozumowania O. Langego łatwo dziś zauważyć dzięki powstaniu nowej dziedziny badań, noszącej różne, dopełniające się znaczeniowo określenia: to teoria układów wysoce złożonych (complex systems), układów niestabilnych czy wreszcie teoria chaosu. Dyscyplina ta wchodzi w ścisłe związki z logiką matematyczną i informatyką - z pojęciami obliczalności, rozstrzygalności czy złożo-ności obliczeniowej. Dawniej, gdy nauka nie doszła jeszcze do tych pojęć, O. Lange zakładał jako rzecz oczywistą, że wszystko na tym świecie (także w gospodarce) da się policzyć w przewidywalnym czasie. Dzisiaj już wiemy, że istnieje niedostępność obliczeniowa. Dotyczy ona zazwyczaj układów lub procesów, które cechuje wielka złożoność. O żadnym z nich nie śniło się luminarzom ekonomii politycznej socjalizmu.

Wyróżniamy:

NIEOBLICZALNOŚĆ stanu układu: dla pewnych wielkości charakteryzujących ten stan nie istnieje algorytm ich obliczania.

NIEPRZEWIDYWALNOŚĆ deterministyczna stanu układu: mimo istnienia algorytmu wyznaczającego kolejne stany, od pewnego punktu nie dają się one przewidzieć.

NIEWYKONALNOŚĆ techniczna: dokładność danych niezbędnych do rozwiązania problemu wymaga opisu tak długiego, że przetworzenie go przekracza aktualne moce obliczeniowe.

Znany wszystkim informatykom Alan M. Turing dokonał trzech przełomowych odkryć: dowiódł istnienia liczb nieobliczalnych (do których nie da się dotrzeć za pomocą algorytmu), na tej podstawie wykazał (rzecz zdumiewającą!), że są w rachunku logicznym zagadnienia nierozstrzygalne, zaś do uzyskania tych wyników podał, niejako przy okazji, pierwszą w historii definicję komputera cyfrowego.

Przymiotnik nieobliczalne odnosimy w matematyce do liczb i funkcji. W zastosowaniach matematyki dotyczy on tych układów w świecie empirycznym, których stany trzeba by (gdybyśmy w ogóle to potrafili) wyrażać w liczbach nieobliczalnych. Czy takie układy istnieją? To bardzo głęboki problem filozoficzny, od niedawna dopiero uświadomiony i pozostający bez rozwiązania. Rozwiązanie powinno przyjść ze strony połączonych sił logiki, informatyki i fizyki.

Sposób bezpośredni polega na wskazaniu takich układów fizycznych, w których występują wielkości nieobliczalne. Pojawiają się doniesienia fizyków o odkryciu takich układów w świecie kwantów, ale dyskusja na ten temat jest dopiero w stadium początkowym. Podejście pośrednie też wiąże się z fizyką, ale przy zaangażowaniu do pomocy logiki matematycznej i filozofii. Można przyjąć, że wszelkie akty świadomości, w tym akty poznania matematycznego, mają uwarunkowanie fizyczne w mózgu i zachodzą one na poziomie kwantowym (za czym przemawiają pewne argumenty, pochodzące m.in. od Johna Ecclesa, noblisty w neurobiologii).

Z logiki matematycznej bierze się twierdzenie Gödla (pokrewne wynikom A. Turinga), że istnieją w arytmetyce zdania, których prawdziwości nie da się dowieść środkami algorytmicznymi, są więc niedostępne dla komputera. Dla umysłu ludzkiego ich prawdziwość jest jednak oczywista. W takim razie pewne procesy umysłowe są w stanie pokonać barierę A. Turinga, czyli poznać prawdy nieosiągalne algorytmicznie. A skoro umysł jest układem, który potrafi działać niealgo- rytmicznie, to samo należy przyjąć w odniesieniu do jego fizycznego podłoża, którym jest mózg. W ten sposób niealgorytmiczność, a więc nieobliczalność, okazuje się cechą pewnych układów w świecie fizycznym. Ten sposób myślenia reprezentuje najdobitniej wybitny fizyk z Oksfordu Roger Penrose.

Hipoteza R. Penrose'a rzutuje na problem dostępności obliczeniowej w ekonomii - przynajmniej na tyle, na ile procesy gospodarcze zależą od procesów zachodzących w świadomości ludzkiej. A z pewnością zależą. Tak więc aktorzy wolnego rynku, obdarzeni świadomością, mogą w sposób intuicyjny rozwiązywać problemy, którym nie podoła najpotężniejszy komputer, zdolny jedynie do procesów algorytmicznych. Sam rynek stanowi być może niebywale złożony układ liczący (lecz nie cyfrowy), który rozwiązuje problemy nierozwiązywalne dla jednostkowej ludzkiej świadomości. Byłaby to informatyczna interpretacja powiedzenia Smitha o niewidzialnej ręce rynku!

Kłopoty demona

Pierre-Simon Laplace w XVIII w. sformułował słynną tezę fizykalnego determinizmu w formie przypowieści na temat demona, czyli superumysłu, obdarzonego wszechwiedzą o fizycznym wszechświecie. Według P. S. Laplace'a, obecny stan świata jest zdeterminowany jego stanem przeszłym. Umysł, który znałby w dowolnym danym momencie prawa rządzące wszystkimi siłami przyrody i położenia wszystkich ciał we wszechświecie, a zarazem byłby zdolny całość tych danych ogarnąć, potrafiłby w jednej formule zawrzeć wszystkie ruchy wszystkich ciał - od największych do najmniejszych. Taki umysł mógłby poznać wszystko z absolutną pewnością: całą przyszłość, tak samo jak przeszłość.

Morał: "Jeśli świat jest deterministyczny, to jest obliczeniowo dostępny dla maszyny mającej skończoną i odpowiednio wielką moc obliczeniową". P. S. Laplace jednak się mylił. Choć należał do największych umysłów w dziejach nauki, nie mógł dorównać swemu demonowi w zdolności przewidywania. Odkryto kontrprzykłady: przypadki, w których pewien proces jest deterministyczny (ponieważ jest algorytmiczny), a zarazem jest on od pewnego momentu całkowicie nieprzewidywalny. Determinizm zaś został odrzucony w mechanice kwantowej.

Algorytmiczność i determinizm idą w parze, gdy przyjmiemy, że deterministyczne prawa nauki zachowują się jak algorytmy do obliczania stanów układu na podstawie danych warunków początkowych. Fakt, że algorytmiczność nie zapewnia przewidywalności, jest odkryciem zaskakującym. Ma to aspekt całkowicie matematyczny. Konstruuje się algorytmy produkujące pewien proces, który od pewnego momentu jest równie nieprzewidywalny, jak nieskończony ciąg rzutów monetą.

Pozostaje jeszcze aspekt empiryczny. Klasyką w dziejach nauki stało się zjawisko zwane malowniczo efektem motyla. Jest to obrazowe podsumowanie myśli o nieprzewidywalności pogody: ruch skrzydeł motyla lecącego nad Pekinem może po miesiącu spowodować tajfun na Florydzie. Wyraża się w tym myśl o niewiarygodnej wrażliwości układu na warunki początkowe: ich minimalna modyfikacja może mieć kolosalne skutki (gdyby motyl poruszył skrzydłami słabiej, nie byłoby tajfunu).

Za tą przypowieścią kryje się zdarzenie, jakie miało miejsce u początków idei nieprzewidywalności deterministycznej. Pewnego zimowego dnia w 1961 r. Edward Lorenz, matematyk zajmujący się meteorologią w MIT, chciał sprawdzić pewne obliczenia, a ponieważ miał wątpliwości tylko co do drugiej ich części, zaczął od tej połowy, wprowadzając dane z otrzymanych wcześniej wydruków. Wyniki były drastycznie różne od poprzednich. Dane wejściowe na wydrukach były dla oszczędności miejsca automatycznie zaokrąglane do trzech miejsc po przecinku, podczas gdy te w pamięci komputera do sześciu. Nie byłoby to powodem tak zaskakujących rozbieżności, gdyby formuły w zbudowanym przez E. Lorenza modelu pogody były równaniami liniowymi. Wchodziły jednak w grę nieliniowe, a w tych najmniejsza zmiana danych wejściowych może przynieść wielkie różnice w rozwiązaniach końcowych.

Te doświadczenia z cyfrowym modelowaniem pogody dały początek wielkiemu ruchowi naukowemu przełomu wieków - teorii chaosu. Obejmuje on badania nad układami niestabilnymi, które cechuje szczególnie wysoka złożoność. Można ją stopniować: bardziej niż pogoda naznaczone są złożonością układy i procesy w przyrodzie organicznej, a w jeszcze większym stopniu układy i procesy umysłowe oraz społeczne (do tych ostatnich należą ekonomiczne).

Stajemy w obliczu paradoksu. Z jednej strony nawet nie próbujemy aktywnie kształtować pogody, mając dość kłopotów z jej modelowaniem do celów prognostycznych, z drugiej zaś, staramy się czynnie wpływać na procesy jeszcze bardziej złożone, dla których znale- zienie adekwatnego modelu cyfrowego jest zadaniem wręcz beznadziejnym. To procesy umysłowe i zależne od nich społeczne.

Jednak ludzie od wieków lepiej lub gorzej, ale jakoś sobie z tym radzą. Czym to wytłumaczyć? Odpowiedź znajdziemy znowu w informatyce, która nas uczy, że oprócz cyfrowych istnieją maszyny analogowe. Te zaś zajmują się przeróbką informacji mającej charakter ciągły, nie zaś cyfrowy, cechujący się nieciągłością. Ta fundamentalna różnica likwiduje nękający "cyfrowców" problem dokładności pomiaru i wielkości zaokrąglenia.

Spójrzmy na organizmy, umysły i społeczeństwa, jak na maszyny analogowe, i zapytajmy: na czym polega ich prze- waga nad cyfrowymi w modelowaniu rzeczywistości? Niech jako przykład do analizy posłuży proces organiczno-psychiczny, jakim jest skok tygrysa. Przykład pouczający, istnieją bowiem ludzie panujący skutecznie nad skokami tygrysów - treserzy cyrkowi. Kalkulują oni bezbłędnie, choć trudno sobie wyobrazić, żeby zdążyli z rachunkami, gdyby mieli je wykonywać, trzymając pejcz w jednej ręce, zaś komputer w drugiej.

Powrót do sporu o model gospodarki

Kiedy model analogowy radzi sobie lepiej niż cyfrowy? Udany skok tygrysa w trakcie polowania w dżungli czy w cyrku na polecenie tresera wymaga zawrotnie złożonego procesu liczenia. Co najmniej tak samo skomplikowane procesy kalkulacyjne zachodzą w mózgu tresera (kalkulacyjne w tym sensie, że zbliżone wyniki można otrzymywać na drodze modelowania cyfrowego).

Zapewne w literaturze można by wykorzystać pomysł bajki o tygrysie, który marząc o karierze cyrkowej udaje się po pomoc do zespołu uczonych. Fizycy opracowują straszliwie skomplikowany układ równań kinetycznych, a więc pewnego rodzaju algorytmów, informatycy przekładają to na program, a neurobiolodzy implementują program w czaszce tygrysa. Skutki działania takiego programu powinny być porównywalne z tym systemem w mózgu tygrysa, który umożliwia mu wspaniałe skoki za sprawą talentów otrzymanych od Natury. Dzięki tej porównywalności wyników nie będzie nadużyciem wykorzystanie słowa "liczyć" przy opisie tego, co wykonuje mózg tygrysa także wtedy gdyby nie został on wyposażony w program cyfrowy.

Dzięki pojęciu maszyny analogowej można pokusić się o rekonstrukcję sposobu liczenia innego niż cyfrowe, wykonywanego przez organizmy i umysły. Tygrys kalkulujący długość i wysokość skoku ma do czynienia z typowymi wielkościami ciągłymi, takimi jak przestrzeń, czas i ruch. Zamiast je "ucyfrowić", jak to się robi w programie dla komputera cyfrowego, tygrys odwzorowuje wartości w innych wielkościach fizycznych, np. w napięciu mięśniowym proporcjonalnym do będącej do pokonania przestrzeni. To z kolei musi mieć odwzorowanie w fizycznych stanach mózgu. Pewien układ takich odwzorowań to model analogowy.

Mózg tresera, który bacznie obser- wuje zachowania tygrysa, też buduje ich model, które następnie przetwarza w sposób odpowiedni do planu postępowania w toku tresury. Obraz na siatkówce jest analogowym modelem postaci i ruchów tresowanego zwierzęcia, a jego dalsze przetwarzanie w mózgu też zawiera procedury analogowe. Procesy myślowe z poziomu bardziej abstrakcyjnego niż poziom doznań wzrokowych i ruchowych (w szczególności rozumowania) cechuje wyższy stopień niedostępności obliczeniowej niż w przypadku nieprzewidywalności deterministycznej. Niektórzy naukowcy, jak wspomniany Roger Penrose, brak obliczalności (w sensie A. Turinga), cechujący pewne poprawne rozumowania matematyczne, wyjaśniają brakiem obliczalności odpowiedzialnych za te rozumowania procesów fizycznych w mózgu.

Skoro procesy ekonomiczne (w tym społeczne) są w przemożny sposób zależne od umysłowych, ten sam najwyższy stopień niedostępności obliczeniowej musi cechować układy społeczne. Należy do nich zaliczyć wolny rynek, którego rolę tak silnie podnosił Hayek, zaś minimalizował Lange. W myśleniu O. Langego nie było nawet zaczątków tej wiedzy o układach niestabilnych, którą dysponujemy obecnie. Umarł on w 1965 r. - tuż po przełomowym doświadczeniu E. Lorenza, dzięki któremu narodziło się nowe zrozumienie algorytmicznej niedostępności.

Profesor Witold Marciszewski jest kierownikiem Katedry Logiki, Informatyki i Filozofii Nauki na Uniwersytecie w Białymstoku, prezesem Fundacji Informatyki, Logiki i Matematyki, członkiem Leibniz Gesellschaft. Tekst powstał na bazie referatu wygłoszonego podczas tegorocznego VII Forum Teleinformatyki w Legionowie.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200