Nowe forum zapewni technologii AI kontrolowany rozwój

W odpowiedzi na wyzwania, jakie stawia przed światem IT technologia AI, czterech czołowych graczy działających w tym obszarze powołało do życia nowe branżowe ciało, które zajmie się tym problemem.

Grafika: Jaap Arriens/NurPhoto

Chodzi o Frontier Model Forum, które zostało założone przez OpenAI, MIcrosot, Google i Anthropic, i stawia sobie za cel opracowanie rozwiązań i propozycji standardów zapewniających jak to określono „bezpieczny i odpowiedzialny rozwój” technologii AI. Forum będzie opracowywać i promować najlepsze praktyki dedykowane dla tego obszaru IT, jak również zajmie się opracowaniem testów porównawczych zdolnych zmierzyć i ocenić wydajność różnych modeli AI. Modele takie stanowią bowiem wyjątkowe ostre wyzwania dotyczące tak ważnej kwestii, jak bezpieczeństwo danych zbieranych przez AI podczas procesu uczenia się. Niemniej ważną kwestią są określone regulacje prawne, które zapobiegną niekontrolowanemu rozwojowi technologii AI.

Powstanie forum zbiegło się w czasie chyba nie przez przypadek z innymi ważnymi wydarzeniami dotyczącymi AI. Chodzi o Unię Europejską, która zapowiada opracowanie odpowiednich regulacji prawnym, dzięki którym rozwój technologii będzie przebiegał w kontrolowany sposób, a nie chaotyczny, jak ma to miejsce obecnie. W USA również toczy się na ten temat dyskusja. Warto przypomnieć iż zeszłym tygodniu prezydent Biden spotkał się w Białym Domu z szefami siedmiu firm siedmioma firmami zajmującymi się sztuczną inteligencją (wśród których znajdują się założyciele Frontier Model Forum), aby postawić tamę niekontrolowanemu rozwojowi AI.

Zobacz również:

  • Akcje Intel spadają - winna rosnąca konkurencja w AI
  • Majowa konferencja Apple może być ważniejsza niż oczekujemy
  • Na Trusted Economy Forum 2023 dowiemy się, że biznes i sport łączy jedno: zaufanie

Zgodnie z zapowiedzią, Frontier Model Forum powoła w nadchodzących miesiącach radę doradczą, które zajmie się ustaleniem priorytetów i strategii grupy. Mówi się, że firmy założycielskie planują konsultować się ze społeczeństwami obywatelskimi i rządami wielu krajów, co ma wzmocnić legitymację działania Forum. Wynika to z przekonania iż zaawansowane systemy sztucznej inteligencji przynoszą społeczeństwu ogromne korzyści, ale aby osiągnąć taki cel potencjał, potrzebny jest nadzór i zarządzanie całym projektem.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200