Militarne Siły Kosmiczne USA (USA Space Force) wstrzymują korzystanie z narzędzi AI, takich jak ChatGPT, ze względu na zagrożenia dla bezpieczeństwa danych

Amerykańskie Siły Kosmiczne wstrzymały korzystanie z internetowych generatywnych narzędzi sztucznej inteligencji, takich jak ChatGPT, dla swoich pracowników z powodu obaw o bezpieczeństwo danych, zgodnie z notatką widzianą przez Reutersa.

Shantanu Kumar/ Pexels

Notatka datowana na 29 września i skierowana do Guardians, jak Space Force nazywa swoich pracowników, zabrania personelowi korzystania z takich narzędzi sztucznej inteligencji, w tym dużych modeli językowych na komputerach rządowych, dopóki nie otrzymają formalnej zgody Głównego Biura Technologii i Innowacji USA, doniosła agencja Reutera. Tymczasowy zakaz był ponoć spowodowany był „spowodowany ryzykiem agregacji danych”.

Lisa Costa, dyrektor ds. technologii i innowacji w Space Force, napisała w notatce, że technologia „niewątpliwie zrewolucjonizuje naszą siłę roboczą i zwiększy zdolność Guardiana do szybkiego działania”.

Zobacz również:

  • Apple zatrudnia specjalistów od AI z Google
  • Blaski i cienie AI
  • 3 sposoby na ulepszenie ciągłego testowania pod kątem generatywnej sztucznej inteligencji

Rzecznik Sił Powietrznych potwierdził tymczasowy zakaz, o którym po raz pierwszy poinformował Bloomberg. „Strategiczna przerwa w korzystaniu z generatywnej sztucznej inteligencji i dużych modeli językowych w Siłach Kosmicznych Stanów Zjednoczonych została wdrożona, ponieważ określamy najlepszą ścieżkę integracji tych możliwości z rolami Strażników i misją USSF”, napisała a w oświadczeniu rzeczniczka Sił Powietrznych Tanya Downsworth. Jest to tymczasowy środek mający na celu ochronę danych naszej służby i Strażników”, dodała.

Źródło: Reuters

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200