CW 10 lat: Nowoczesność - era intelektu

A co powiedzieć o węzłach gordyjskich w kwestiach etycznych i prawnych inżynierii bioinformatycznej? Jest to dziedzina szczególnie ofensywna, szykująca się do roli perły w koronie nowej gospodarki (stąd cieszy się np. u polityków niemieckich, zwłaszcza z CSU, ogromnym zainteresowaniem, podczas gdy do sarmackich, jakby wieść jeszcze nie dotarła). Ingerencja w podstawowe kody ludzkiej tożsamości, genetyczny oraz neuronowy, może przynieść oprócz pożądanych skutki horrendalnie złe. Nie słychać, by wielu było ochotników do wychodzenia tym kwestiom naprzeciw, czy to wśród bioinformatyków, czy autorytetów prawniczych, filozoficznych, teologicznych. Żeby do przełamania impasu przyczynić się własnym przykładem, poruszę te sprawy w aspekcie definicji intelektu.

Bioinformatyka a pomyłka Turinga z roku 1950

Alan Turing, któremu zawdzięczamy rzecz tak wielką, jak podana w 1936 r. precyzyjna definicja komputera oraz dowód na nieprzekraczalne ograniczenia jego możliwości, w roku 1950 rozciągnął te same ograniczenia na umysł i mózg ludzki. Podczas gdy twierdzenie z roku 1936 było ścisłym i niepodważalnym wynikiem z zakresu logiki matematycznej, twierdzenie z roku 1950 było hipotezą filozoficzną. Można to skomentować zgryźliwie, że A. Turing wiedział, co robi, gdyż pierwszy z tych artykułów znany jest tylko garstce specjalistów, a drugi, opublikowany w miesięczniku Mind, najbardziej prestiżowym w Anglii piśmie filozoficznym, uczynił z niego gwiazdora sztucznej inteligencji. Nie ma jednak powodu przypisywać mu podejścia koniunkturalnego, bo wiele wskazuje na to, że A. Turing wierzył, iż mózg podlega dokładnie tym samym ograniczeniom, co maszyna cyfrowa.

Poddać tę tezę sprawdzeniu empirycznemu - oto wielkie zadania dla biologii. A dokładniej, dla tego nie istniejącego jeszcze działu bioinformatyki, który trzeba będzie nazwać neuroinformatyką (działem istniejącym jest ten, w którym informatyka spotyka się z genetyką). Zanim takie sprawdzenie będzie mogło nastąpić, dysponujemy argumentem osłabiającym filozoficzną hipotezę Turinga. Mianowicie, wyprowadził on z niej przewidywania, o których wiemy już z pewnością, że się nie sprawdziły. Zapowiadał bowiem w roku 1950, że z końcem XX stulecia inteligencja komputerów tak zrówna się z ludzką, że nie będziemy w stanie odróżnić umysłu ludzkiego od maszyny cyfrowej. Wiemy już, że tak się nie stało.

No i co z tego? - powie obrońca Turinga. W tak bezprecedensowej sprawie pomyłka o 10 czy 20 lat nie dyskwalifikuje przepowiedni. W zasadzie można by się z tym zgodzić, ale zważmy, że Turing odnosił to

przewidywanie do komputerów pierwszej generacji, tych z lampami elektronowymi; gdyby przewidywał układy scalone i znał prawo Moore'a, mówiące o podwajaniu się mocy procesorów co kilkanaście miesięcy, to dla zrównania ludzi i komputerów podałby datę znacznie wcześniejszą.

Ta pomyłka Turinga nie odstrasza następnych prognostów. Bill Joy w eseju Dlaczego przyszłość nas nie potrzebuje? na łamach Wired (kwiecień 2000 r.) podpisuje się pod prognozą, że ok. 2030 r. dzięki postępom elektroniki molekularnej sprawność komputerowego przet-warzania danych dorówna mózgowi ludzkiemu; potem ma nastąpić już samoczynny rozwój inteligencji robotów, które prześcigną ludzi i zechcą ich sobie podporządkować.


TOP 200