Czy bezrobocie to wina komputerów?

Trudno jest udowodnić związki między produktywnością a stosowaniem technologii IT. Czy takie relacje istnieją w odniesieniu do miejsc pracy i poziomu bezrobocia?

Profesor Brian W. Arthur, badacz kalifornijskiego ISL/PARC (Intelligent Systems Lab/Palo Alto Research Center), ma rację, mówiąc: "Cyfryzacja tworzy drugą ekonomię - rozległą, zautomatyzowaną i niewidzialną - niosącą największe zmiany od czasów rewolucji przemysłowej". To zdanie otwiera publikację na łamach renomowanego "McKinsey Quarterly" (październik 2011), zatytułowaną właśnie: "The Second Economy".

Artykuł bada związki postępu technicznego z bezrobociem. Związki, które budzą emocje od co najmniej dwóch wieków. W tym roku przypada bowiem rocznica uchwalenia przez parlament brytyjski (1812 r.) ustawy grożącej nawet karą śmierci za niszczenie maszyn (z mocy tego prawa stracono kilkanaście osób). Do takich desperackich aktów dochodziło wówczas ze strony tkaczy i chałupników obawiających się utraty pracy wskutek stosowania automatycznych krosien. Podobne napięcia występowały w historii wielokrotnie. W Europie Zachodniej ćwierć wieku temu masowo protestowali górnicy z nierentownych kopalni, które trzeba było zamykać albo wydobywać dalej węgiel po kosztach. Czy zatem możemy się obawiać, że komputery zniszczą miejsca pracy w skali makroekonomicznej?

Rok 2025

Profesor Arthur przyjmuje, że "druga ekonomia" w dłuższej perspektywie będzie przekładać się na średnio 2,4-proc. wzrost produktywności całej gospodarki, stopniowo zastępując tę "pierwszą" i osiągając jej poziom z roku 1995 (założony początek cyfryzacji) w roku 2025. Te szacunki nie budzą kontrowersji. Problematyczny jest, rzekomo z nich wynikający, następujący przykład: "wzrost produktywności o 2,4% rocznie oznacza, że albo ta sama liczba osób produkuje 2,4% więcej, albo 2,4% mniej osób produkuje tyle samo". Owszem, można też założyć, że obie tendencje występują jednocześnie, wzajemnie się kompensując. Rzecz w tym, że produktywność całkowita, jaką należy uwzględnić dla całości gospodarki, oznacza relację całości efektów do całości nakładów (iloraz wyjścia do wejścia), a produktywność z powyższego przykładu odnosi się jedynie do produktywności pracy.

W ostatnim przypadku mówimy zatem o produktywności cząstkowej, której nie można automatycznie łączyć z całkowitą. Dodajmy, że także w odniesieniu do wydajności pracy mamy do czynienia z jej różnymi rodzajami i miernikami, np.:

- produkcja ilościowo do liczby osób

- sprzedaż na jednostkę kosztu pracy

- jednostki wyrobu na jedną godzinę roboczą.

Innymi słowy, produktywność można zwiększać także wtedy, kiedy nie zmienia się ani liczba zatrudnionych, ani wielkość produkcji. Wystarczy wytwarzać po mniejszym koszcie, zmniejszając nakłady na energię, korzystniej kupując surowce czy redukując zamrożone środki (wzrost produktywności kapitałowej).

Warto o tym pamiętać, aby nie dać się ponieść fałszywej fali katastroficznych hipotez, które mają się wkomponować w nadużywane hasło "kryzys". Hasło, które od wielu lat stało się medialnym samograjem. Warto jednak odróżniać kryzys zaufania do niektórych instytucji finansowych od zaufania do całości tzw. realnej gospodarki. Kluczem jest tu bowiem słowo "realna". Czy realna jest rynkowa wycena akcji, prowadząca do trzycyfrowego poziomu współczynnika C/Z (cena do zysku), skoro już powyżej 25, wedle klasycznej analizy fundamentalnej, mówi się o znamionach bańki spekulacyjnej? Krótka odpowiedź na tak postawione pytanie brzmi: tak, z definicji. Mówimy bowiem o realnie istniejących cenach giełdowych kształtowanych przez rynek. Istniejące realnie obiekty bądź procesy gospodarcze nie mają fizycznych własności, z których precyzyjnie można by wyprowadzić ich (przyszłą) finansową wartość rynkową. Można jednoznacznie zważyć kilka jabłek mających masę determinowaną prawami fizyki. Nie da się jednak już tak dokładnie i z góry "pomierzyć" ich ceny - ta ukształtuje się dopiero w momencie zawierania transakcji rynkowej i jest różna w zależności od miejsca i czasu. Dodatkowo w ekonomii występują czynniki, których nie ma w równaniach matematyki i fizyki: wolna wola człowieka, jego uczucia, czy wręcz irracjonalizm zachowań.

Praca zrobotyzowana

Związki między realnym światem a sytuacją w handlu giełdowymi instrumentami pochodnymi jednak istnieją, nawet jeżeli są to też tylko związki "pochodne". Także w przespekulowanych bankach pracują realni ludzie, którzy realnie mogą stracić swoje miejsca pracy, a wówczas faktycznie zaczną kupować mniej komputerów i aplikacji. Producent nawet najnowocześniejszego oprogramowania może zatem nagle zobaczyć, że kurczy się dla niego rynek zbytu, i to nie z powodu słabej jakości software’u. Czy zjawiska, o których mówimy, dają się przewidywać? I czy możemy rzeczywiście spodziewać się "kryzysu wydajności" oraz masowych zwolnień w związku z rozwojem nowych technologii?

W perspektywie historycznej, długofalowej, widać, że rozwój techniki nie niszczy miejsc pracy, ale je tworzy. Gdyby było inaczej, to wskutek tego procesu, istniejącego od początku naszej cywilizacji, już dawno wszyscy bylibyśmy bezrobotni. 200 lat temu prawie cała ludzkość pracowała w rolnictwie i jeszcze nie starczało żywności dla wszystkich, a dziś w wielu krajach rolnicy stanowią niewielką część społeczeństwa, a produkują dosłownie góry pożywienia dla siebie i innych. Pozostała większość nierolniczego społeczeństwa znalazła zatrudnienie w przemyśle, a w miarę powstawania jeszcze nowszych miejsc pracy także w usługach.

Jednocześnie najwyższe bezrobocie panuje nie w tych krajach, które są najnowocześniejsze i najbardziej zautomatyzowane (np. Japonia, USA), ale w tych, gdzie prawie wszystko robi się ręcznie i teoretycznie pracy powinno być tam najwięcej, a jest najmniej. Owszem, kiedy w fabryce jeden robot spawalniczy "zwalnia" z pracy dziesięciu spawaczy, to nie jest to dla nich nic przyjemnego i nie każdy z nich znajdzie od razu nową pracę. Ale te zrobotyzowane miejsca pracy to nowe zatrudnienie dla inżynierów, programistów, techników, robotyków właśnie. Bilans jest zawsze na dłuższą metę korzystny i warto uwalniać ludzkość od uciążliwych, mało kreatywnych zajęć.

Automatyzacja myślenia

Dziś wiemy też coraz lepiej, że historia każdej epoki to poniekąd ciąg niesprawdzonych prognoz z poprzedniej. Wystarczy spojrzeć na przewidywania waszyngtońskiego sympozjum z roku 1966 pod znamiennym tytułem "Space Age in Year 2001". Z rozmachem kreślono wówczas wizje świata, którego faktyczny kształt dziś możemy sobie obejrzeć przez okno. Stacjonarna baza na Marsie i eksploatacja surowców na Księżycu, globalny transport rakietowy czy sterowanie pogodą - to tylko niektóre z tamtych marzeń, po których nie widać dzisiaj śladu. Co ciekawe, wyobrażano sobie, że większe postępy poczynimy w obszarze ujarzmiania materii i energii niż informacji. Nie przypuszczano natomiast, że superkomputery (wedle ówczesnych kryteriów) mogą znaleźć się w każdym domu.

Obecnie niektórzy analitycy mówią, że wkraczamy w erę postępu technicznego nowego rodzaju, gdzie obok istniejącej automatyzacji produkcji pojawi się "automatyzacja myślenia". Wówczas maszyny mogłyby (teoretycznie) zastąpić człowieka także tam, gdzie wymaga to działań inteligentnych. Jednak również i takie spekulacje istnieją dłużej niż informatyka (dzieło twórcy słowa "robot", Karela Čapka, pt. "Rossumovi Universální Roboti", powstało w roku 1922). W praktyce sztuczna inteligencja (artificial intelligence) ciągle bywa bardziej sztuczna niż inteligentna.

Współcześnie za inteligentny można więc uznać system produkcyjny, który efektywnie integruje inteligencję ludzką z jej materialnym otoczeniem wytwórczym. Zakłada się przy tym, że naturalna inteligencja człowieka może podlegać ograniczeniom w złożonym, "nieinteligentnym" otoczeniu produkcyjnym. Celem projektowania tak rozumianych, inteligentnych systemów produkcyjnych nie jest zatem autonomiczny, zautomatyzowany system zdolny do inteligentnych zachowań jako całość - w sensie "twardej" sztucznej inteligencji, a więc całkowicie zastępujący człowieka. Takie podejście uwzględnia elastyczność systemu produkcyjnego, realistycznie traktując aktualne możliwości technologii informatycznych, co nie wyklucza stosowania sztucznej inteligencji jako rozwiązań cząstkowych w podsystemach przedsiębiorstwa (np. systemy eksperckie).


TOP 200