Technologie na wojnie

Następnym wielkim przełomem w przemyśle obronnym będą autonomiczne systemy sztucznej inteligencji. Bezzałogowe statki powietrzne, interfejsy HIM czy egzoszkielety są stosowane i rozwijane na szeroką skalę szczególnie w krajach anglojęzycznych, m.in. Australii, gdzie korzysta z nich zarówno departament obrony, jak i służba celna i graniczna.

Może to zabrzmi złowieszczo, ale działania wojenne i chęć przechytrzenia wroga często prowadzą do rozwoju nowych technologii, czyniąc z sektora obronnego lidera innowacji. I faktycznie. Niektóre z najbardziej nowatorskich rozwiązań technologicznych zrodziły się z wojny.

Przykładem jest ENIAC, czyli Elektroniczny Numeryczny Integrator i Komputer, który początkowo stosowany był w tablicach artyleryjskich podczas II wojny światowej. Był tysiąckroć szybszy od maszyn elektromechanicznych.

Zobacz również:

  • IDC CIO Summit – potencjał drzemiący w algorytmach

- Prawdopodobnie wszystko, z czym mamy dziś do czynienia w obszarze elektroniki użytkowej ma swoje korzenie w przemyśle obronnym, m.in. komputery, systemy GPS, budowanie sieci czy komunikacja bezprzewodowa. Większość z tych rozwiązań było początkowo stosowanych w celach wojskowych – mówi Alex Zelinsky, główny naukowiec ds. technologii obronnych w australijskim Departamencie Nauki i Technologii Przemysłu Obronnego (DSTO).

Zelinsky kieruje wieloma projektami naukowymi prowadzonymi przez DSTO. W ramach jednego rozwija szereg autonomicznych systemów sztucznej inteligencji, które wykorzystują dane sensoryczne, sztuczną inteligencję, interfejsy człowiek-maszyna (HMI), sieci komunikacyjne i algorytmy szybkiego wyszukiwania. Umożliwiają prowadzenie działań zwiadowczych i są uznawane za „następny wielki przełom” w przemyśle obronnym.

Takie autonomiczne systemy sztucznej inteligencji obejmują m.in. statki podwodne służące do niszczenia min w oceanie, pojazdy powierzchniowe stosowane w monitoringu i patrolowaniu wód, pojazdy transportujące ciężki sprzęt i czworonożne „muły-roboty” przenoszące żołnierski ekwipunek.

Autonomia w działaniu

Bezzałogowe statki powietrzne (UAV) zarządzane przez autonomiczne systemy sztucznej inteligencji były wykorzystywane przez australijskie wojska m.in. w Afganistanie. Służyły do monitoringu obszarów niebezpiecznych.

Samoloty typu UAV są wyposażone w szereg czujników, kamer i systemów laserowych, dzięki którym wykonują zdjęcia patrolowanego obszaru przesyłane następnie na ekran terminala bazowego i odczytywane przez żołnierzy w czasie rzeczywistym.

- Zdarza się, że żołnierze noszą w swoich plecakach małe samoloty typu UAV. W każdej chwili mogą wyciągnąć je i wyrzucić w powietrze. Takie urządzenie wznosi się w górę, monitorując i mapując okoliczny obszar. Przesyła obrazy wideo w czasie rzeczywistym do terminala, jeśli tylko zidentyfikuje w pobliżu jakiekolwiek zagrożenie – wyjaśnia Alex Zelinsky.

Takimi zagrożeniami mogą być np. miny. A korzystając z pojazdu robotycznego, żołnierz może zdalnie je rozbroić.

Jednym z przykładów bezzałogowego statku powietrznego jest zdalnie sterowany Heron należący do Królewskich Sił Powietrznych Australii, który dowiódł swojej wartości właśnie w Afganistanie. W rezultacie, rząd australijski rozszerzył jego zastosowanie, zapewniając wojsku wsparcie i możliwość prowadzenia działań wywiadowczych, monitoringu i rekonesansu na wysokim poziomie. Samoloty typu UAV są coraz częściej wykorzystywane w patrolowaniu australijskich wybrzeży. W ramach projektu AIR 7000 samoloty typu AP-3C Orions mają zostać w najbliższym czasie zastąpione dużo bardziej wytrzymałymi, bezzałogowymi statkami powietrznymi, które dodatkowo mogą latać na wyższych wysokościach.

Wszystko wskazuje na to, że bezzałogowe statki powietrzne i autonomiczne systemy sztucznej inteligencji są przyszłością przemysłu obronnego. Istnieją jednak obawy co do ewentualnego wpływu ich stosowania na ludzkość. Zdaniem Zelinsky’ego, priorytetem powinno być utrzymanie zadań związanych z kontrolą systemów i podejmowaniem decyzji w rękach człowieka.

Maszyny nie powinny samodzielnie ustalać priorytetów, jeśli chodzi o cele. To ludzie muszą decydować, czy dany cel jest uzasadniony lub właściwy, na podstawie dostępnych informacji i wyników działań wywiadowczych. Rozkaz powinien zawsze płynąć od osoby na odpowiednim szczeblu decyzyjnym.

Autonomiczne systemy sztucznej inteligencji można nadzorować tak samo, jak wzajemnie kontrolują się ludzie. Na większy zakres autonomii można zezwolić jedynie w określonych obszarach. Ludzie nie mają żadnej możliwości kontroli systemów, które po uruchomieniu przechodzą na całkowicie autonomiczne działanie. Nie tak funkcjonuje wojsko, a sami naukowcy powstrzymują się od sugerowania takiego sposobu działania, proponując inne rozwiązania przy tworzeniu nowych rozwiązań technologicznych.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200