Ludzkość u progu robotycznej apokalipsy?

Nastanie ery robotów, które opanują ludzkość i doprowadzą do jej zniszczenia, jest mało prawdopodobne, ale zagrożenia wynikające z rozwoju sztucznej inteligencji są jak najbardziej realne.

Coraz więcej ekspertów branży technologicznej wzywa do szerokiej debaty o możliwych, niepożądanych skutkach rozwoju sztucznej inteligencji. Czy przepowiednie naukowców zwiastujące nieuchronną zagładę ludzkości w wykonaniu robotów mają jakiekolwiek uzasadnione podstawy? Jak zagwarantować ludzkości bezpieczeństwo i ochronę przed piekielnie inteligentnymi maszynami? Jakie zabezpieczenia warto wdrażać? I przed czym tak właściwie się bronić?

Połączenie wyników prac naukowców w dwóch kluczowych obszarach, jakimi są robotyka i sztuczna inteligencja, może przynieść ludzkości ogromne, wręcz niewyobrażalne korzyści. Nie ulega wątpliwości, że stworzenie maszyn o poziomie inteligencji porównywalnym z ludzkim umysłem popchnęłoby rozwój cywilizacji w zupełnie nowym kierunku. Jednocześnie, zewsząd słychać głosy, że naukowcy nie poświęcają wystarczająco dużo uwagi potencjalnym skutkom społecznym, które wiążą się z powstaniem takich przełomowych wynalazków.

Zobacz również:

  • Sztuczna inteligencja od Apple wymagać może nowych procesorów
  • Roberta Nelson Shea z Universal Robots z „robotycznym Noblem” po raz drugi

- Przed nami jeszcze długa droga, jeśli chodzi o rozwój superinteligentnych komputerów, ale już dziś powinniśmy zacząć zastanawiać się nad wdrożeniem odpowiednich regulacji i praktyk, które pozwolą ludzkości przygotować się na przyszłe rewolucje – mówi Ronadl Arkin, prodziekan amerykańskiego uniwersytetu Georgia Tech College of Computing.

Skrywane długo obawy o przejęciu panowania nad światem przez roboty, funkcjonujące dotychczas jedynie w opowiadaniach science-fiction, w ostatnich miesiącach nabrały nowego wyrazu. Czołowi przedstawiciele świata technologii zaczęli publicznie dzielić się swoimi obawami dotyczącymi zagrożeń ze strony sztucznej inteligencji. Byli to, między innymi, Bill Gates, Stephen Hawking i Elon Musk. Ich prognozy zdają się potwierdzać najnowsze osiągnięcia technologii: głosowy asystent Siri od Apple czy samojezdne pojazdy od Google. Błyskawiczny postęp sprawia, że niektórzy wierzą w szybkie nadejście ery panowania maszyn o nadludzkiej inteligencji.

Naukowcy nie są jednak w stanie dokładnie przewidzieć, czy i kiedy urzeczywistnią się takie przewidywania. Równie dobrze może to stać się za dziesięć albo za sto lat, jak twierdzi Nate Soares, dyrektor wykonawczy w amerykańskim Instytucie Badań nad Inteligencją Maszyn (ang. Machine Intelligence Research Institute). Współczesne roboty są w stanie nauczyć się wykonywania określonych zadań, ale stworzenie maszyny, która będzie w stanie w pełni naśladować zachowanie człowieka, nadal wymaga wielu godzin żmudnej pracy i kilku przełomowych odkryć. Nate Soares uważa jednocześnie, że nieodpowiedzialne wdrażanie rozwiązań sztucznej inteligencji niesie ze sobą równie wiele zagrożeń, co korzyści.

Prezes ITIF (ang. Information Technology and Innovation Foundation), Robert Atkinson przestrzega jednak przed nadmiernym demonizowaniem ryzyka związanego z rozwojem sztucznej inteligencji. Jak twierdzi, szerzenie wizji robotycznej apokalipsy upodobali sobie zwłaszcza politycy i przedstawiciele mediów. Jego zdaniem, nieuzasadnione podsycanie histerii może doprowadzić do zmniejszenia finansowania dla prac badawczo-rozwojowych, czego ostatecznym skutkiem może być zahamowanie rozwoju technologii. Zamiast tego, należałoby pokazywać, że środowisko naukowe odpowiedzialne traktuje swoją misję i dba o odpowiednie zabezpieczenia. Chociażby dlatego, że niewiele jest innych rozwiązań technologicznych, które wywoływałyby tak wysoki poziom naturalnego w gruncie rzeczy strachu, jak sztuczna inteligencja.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200