Idee i technologie

Z inż. Jackiem Karpińskim, twórcą pierwszych polskich maszyn liczących i komputera K-202, przełomowej konstrukcji w światowej technologii komputerowej początku lat 70., rozmawia Sławomir Kosieliński.

Z inż. Jackiem Karpińskim, twórcą pierwszych polskich maszyn liczących i komputera K-202, przełomowej konstrukcji w światowej technologii komputerowej początku lat 70., rozmawia Sławomir Kosieliński

Gdy myślimy o XXI w., nie powinniśmy chyba zapominać, że większość technologii następnego stulecia będzie korzystała z idei, które narodziły się kilkadziesiąt, a nawet kilkaset lat wcześniej. O sile tkwiącej w ludzkich wynalazkach, pisał przekonywująco Sofokles w "Antygonie": człowiek "wszystko rozumem zwycięży". Porozmawiajmy więc o najszybciej rozwijającym się wynalazku naszego stulecia - komputerze i Pana refleksjach nad postępem technologicznym. Na początek pytanie dość istotne dla naszych młodszych czytelników: Kiedy zetknął się Pan po raz pierwszy z komputerem?

Najpierw słyszałem i czytałem o takich urządzeniach, potem sam zrobiłem taką maszynę, a dopiero później zobaczyłem inne konstrukcje. Był to rok 1955.

Jakie zadania postawił Pan sobie przy konstrukcji tego urządzenia?

Wiedziałem z literatury, co mogą robić maszyny analogowe i cyfrowe. Kiedy otrzymałem propozycję budowy urządzenia do przepowiadania pogody, pomyślałem, że jest to kapitalny pomysł. W tej konstrukcji (AAH - Analogowy Analizator Harmonicznych) zastosowałem 650 lamp. Była to maszyna analogowo-cyfrowa. Budowałem ją przez 2 lata. Opłaciło się to, ponieważ bardzo poprawiła się przepowiadalność pogody Państwowego Instytutu Hydrologii i Meteorologii. Odtąd możliwe było przepowiadanie z wyprzedzeniem tygodnia, a nawet dwóch. Dane wpisywało się na wykresy. Aby ułatwić analizowanie, skonstruowałem specjalny czytnik do automatycznego ich wczytywania. Niestety, nie było dalszych wersji. AAH był używany przez dwa lata, do czasu przeprowadzki PIHM. Maszyna była ciężka, stała na drugim piętrze i ...spuszczono ją po schodach. Na amen.

Czy ówczesne wyobrażenia o przyszłości nazwałby Pan futurologią czy science-fiction?

To była futurologia. Osobiście nie lubię Science-Fiction. Bardzo cenię Lema, ale nie mogę go czytać. I żadnej innej książki z tego gatunku.

Jaka więc była Pana realna wizja przyszłości?

Wie Pan co mnie od zawsze najbardziej interesowało? ...Sztuczna inteligencja. Zajmowałem się nią od samego początku. W roku 1959 zorganizowałem pierwsze w Europie seminarium o automatycznym tłumaczeniu języków naturalnych. Notabene, kiedyś jakiś dziennikarz, zapytał mnie, czy maszyna będzie mogła pisać wiersze. Odpowiedziałem, że jest to możliwe, bo myślę, że wiem, jak ją zbudować.

...W Internecie spotkałem się już z takim serwerem, który tworzył wiersze miłosne na zasadzie losowego wyboru kilkudziesięciu fraz...

To głupia metoda. Trzeba sięgnąć do tego, czym jest ludzka inteligencja i ludzka możliwość twórczości. Inteligencja zależy od szybkiego kojarzenia wielu drobnych faktów i pewnych rzeczy płynących z doświadczenia. W wieku niemowlęcym nabywamy wyczucie semantyki. Każdy z nas ma własną maszynę semantyczną. Jak z niej będziemy korzystać, zależy wyłącznie od możliwości szybkiego kojarzenia. Pamiętajmy, że mózg człowieka operuje wieloma kanałami przetwarzania informacji - jak w maszynie wieloprocesorowej - i człowiek o wysokim IQ używa ich więcej, drugi mniej. Przy budowie takiego urządzenia trzeba zgromadzić bardzo dużą liczbę informacji, które przecież człowiek zdobywa przez całe życie. Potrzeba do tego ogromnej pamięci. Dzisiaj widać już takie możliwości. Poza tym maszyna ma znacznie lepszą możliwość kojarzenia niż człowiek. Jest szybsza. Sądzę, że zbudowanie maszyny naprawdę inteligentnej stanie się możliwe za 10-15 lat.

Jaka to będzie technologia?

Może będą to sieci neuronowe, może coś innego. To nie chodzi o technologię, chodzi o architekturę. O budowę olbrzymiej pamięci z możliwością szybkiego dostępu skojarzeniowego do kolosalnej ilości informacji. Tak się zresztą złożyło, że w 1964 r. stworzyłem w Polskiej Akademii Nauk pierwszą w Europie maszynę wykorzystują symulację sieci neuronowej - Perceptron. Można jej było pokazywać różne literki, symbole, obrazki i uczyć ją, co jest co. Następnie maszyna je rozpoznawała.

Słowem, co się bardziej liczy w myśleniu o XXI w.?

Liczy się idea, rozwiązania logiczne, nowa koncepcja, to, co człowiek chce osiągnąć. Trzeba widzieć nowe zastosowania, nowy koncept, a technologia... umożliwi to lub nie. Natomiast obecnie mamy taką sytuację, że rozwój technologii jest znacznie szybszy niż rozwój idei. Z tego punku widzenia mamy większe możliwości niż potrafimy je wykorzystać. Oprogramowanie i narzędzia programistyczne nie nadążają za techniką. Software zmierza w niewłaściwym kierunku. Za dużo pary idzie w gwizdek, w różnorakie fajerwerki - okienka czy przyciski. Za mało czasu mają twórcy na przemyślenie nowych idei.

Jakie jest Pana przesłanie dla młodych informatyków na XXI w.?

W tej chwili świat idzie szybko naprzód. Ostra konkurencja wymusza na projektantach systemów informatycznych skracanie czasu produkcji do granic rozsądku. Nie ma to dobrego wpływu na przemyślenie sprawy. Szybko, szybko dać coś nowego na rynek, na ogół nie dokończonego. Te wszystkie programy, które się pojawiają, są nie dokończone i nie są nowe w znaczeniu koncepcyjnym. Jeśli już napotykamy zmiany, to idące na łatwiznę. Więcej wodotrysków zamiast nowej koncepcji. Wspomniane już "okienka", listy, przyciski, przeszukiwania, robi się od ręki, nie widać zaś, aby ktoś wymyślił coś zupełnie nowego.

O tym mówiłem już 25 lat temu, jak rozmawiałem ze Stefanem Bratkowskim o przyszłości. Powiedziałem wtedy, że trzeba programować skuteczniej i łatwiej. Teraz programuje się troszkę skuteczniej i ...trudniej. A chodzi o to, aby było to łatwiejsze. Są takie możliwości, gdy wykorzystamy na przykład sztuczną inteligencję. W tym kierunku idą pakiety zintegrowane programowe - do finansów, zarządzania, baz danych, systemy ekspertowe i itp. Ale jest to dopiero początek czegoś nowego. Obecnie stosowane rozwiązania są niesłychanie nieefektywne z punktu widzenia technologii. To, co kiedyś zajmowało 1 MB, teraz zajmuje 100 MB! We współczesnym rozwiązywaniu zagadnień informatycznych przeraża ich nieefektywność, rozrzutność i niegospodarność. Notebook, którego używam, ma twardy dysk o pojemności 1 GB i procesor Pentium. To znaczna różnica technologiczna od rozwiązań sprzed 20 lat. Lecz metody używania są takie same jak wtedy. Marzę, że komuś się nie będzie spieszyło, zastanowi się dłużej nad problemem kontaktu z maszyną, którą jest komputer.

Ciągle mamy do czynienia z liniowym postępem. Mnie się udało w 1969 r. odejść od takiego modelu rozwoju, kiedy zastosowałem po raz pierwszy na świecie pamięć stronicową, przełamującą barierę 64 KB dla 16-bitowego komputera. Dlatego uważam, że trzeba mieć nowy koncept w badaniach informatycznych: skupmy się na idei, nie zaś na liczbie okienek czy szybkości. Najpierw idea, później technologia!

Uważa się Pan za elektronika czy informatyka?

Jestem jednym i drugim. Zaczynałem jako elektronik, lecz szybko byłem zmuszony zająć się pisaniem programów. Dzięki temu mogłem zacząć tworzyć swoje konstrukcje, myśląc o sobie, jako użytkowniku. Miały być one takie, abym sam z przyjemnością mógł z nich korzystać. Buduję jakby dla siebie, nie na zamówienie. Aby jednak ułatwić sobie zadanie, dużo rozmawiam z ludźmi, którzy będą użytkownikami mojego systemu. Lubię zapytać, jak ktoś widzi to, a jak tamto? Wtedy implementuję.

Czy wierzy Pan w cyborga?

Teoretycznie jest to możliwe, technologicznie też, lecz po co? Czy współczesne automaty, sterowane komputerami nie są wystarczające? W przyszłości będą bardziej kompleksowe, szybsze, ale dlaczego nadać im kształt człowieka? Nie ma potrzeby, aby komputer wyglądał jak my.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200