Automatyczny pilot

Na Katolickim Uniwersytecie Amerykańskim w Waszyngtonie przeprowadzono eksperymenty na studentach i pilotach, by zbadać, czy operator systemu sztucznej inteligencji może skutecznie kontrolować przebieg jego pracy.

Na Katolickim Uniwersytecie Amerykańskim w Waszyngtonie przeprowadzono eksperymenty na studentach i pilotach, by zbadać, czy operator systemu sztucznej inteligencji może skutecznie kontrolować przebieg jego pracy.

Okazało się, że jest to bardzo trudne. Działając przez dłuższy czas bez awarii, system komputerowy wytwarza w operatorze nieuświadamiane przekonanie, że działa nieomylnie. To powoduje tak znaczne osłabienie spostrzegawczości, że jawne błędy systemu są uznawane przez operatora za konieczną i właściwą reakcję. Efekt ten jest szczególnie niebezpieczny na długich lotach pasażerskich, np. z San Francisco do Hongkongu. Po włączeniu automatycznego pilota nawet znaczna utrata wysokości nie budzi niepokoju niektórych testowanych osób. Co gorsze, Wydział Psychologii na Catholic University of America doszedł do wniosku, że ten typ znużenia ogarnia wszystkich. Nie istnieje psychologiczny profil osoby pilota szczególnie skłonnego do przesadnej wiary w komputer. Złudzeniu temu ulegają wszyscy piloci. Jedynym wyjściem jest wprowadzenie reguły, by co jakiś czas, np. 2 godziny, każdy pilot przechodził na krótki okres czasu na sterowanie ręczne. Piloci godzą się z tym wnioskiem. W dobrowolnych raportach na temat przebiegu lotu składanych przez pilotów 5% sytuacji poważnego zagrożenia powstaje na skutek przesadnego zaufania do sposobu działania automatycznego pilota.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200