6 najlepszych praktyk do opracowania korporacyjnej polityki wykorzystania generatywnej sztucznej inteligencji

Rozważmy zakres wyłaniających się możliwości AI przed mapowaniem tego, co jest najlepsze dla organizacji.

Zdjęcie: Shutterstock

Mimo że niedawno szereg znanych osobistości wystosowało list otwarty wzywający wszystkie laboratoria pracujące nad rozwojem sztucznej inteligencji do natychmiastowego wstrzymania szkolenia systemów AI potężniejszych niż GPT-4 na sześć miesięcy, w rzeczywistości jest już za późno – dżin bowiem wyskoczył z butelki.

Oto sposoby, aby lepiej zrozumieć, do czego zdolne są najnowocześniejsze algorytmy sztucznej inteligencji, i wykorzystać je do skonstruowania skutecznej korporacyjnej polityki użytkowania dla swojej organizacji.

Zobacz również:

  • Blaski i cienie AI
  • IDC CIO Summit – potencjał drzemiący w algorytmach

Generatywna sztuczna inteligencja jest formą AI, która wykorzystuje algorytmy bez i pod częściowym nadzorem do tworzenia nowych treści z istniejących materiałów, takich jak tekst, dźwięk, wideo, obrazy i kod. Przypadki użycia tej gałęzi AI są coraz częstsze, a organizacje wykorzystują ją m.in. do lepszej obsługi klientów, lepszego wykorzystania istniejących danych przedsiębiorstwa oraz poprawy efektywności operacyjnej.

Jednak podobnie jak w przypadku innych nowych technologii, nie jest ona pozbawiona poważnych zagrożeń i wyzwań. Według ostatniego badania Salesforce przeprowadzonego wśród starszych liderów IT, 79% respondentów uważa, że technologia ta może stanowić zagrożenie dla bezpieczeństwa, 73% obawia się, że może być stronnicza, a 59% uważa, że jej dane wyjściowe są niedokładne. Ponadto należy wziąć pod uwagę kwestie prawne, zwłaszcza w przypadku, gdy wykorzystywane z zewnątrz treści generatywne stworzone przez AI są faktyczne i dokładne, treści objęte prawami autorskimi lub pochodzą od konkurencji.

Jako przykład i sprawdzenie rzeczywistości, ChatGPT sam mówi nam, że „moje odpowiedzi są generowane na podstawie wzorców i skojarzeń wyuczonych z dużego zbioru danych tekstu i nie mam możliwości zweryfikowania dokładności lub wiarygodności każdego źródła odwołującego się do zbioru danych”.

Według organizacji non-profit Tech Policy Press, tylko w obszarze prawa znajdziemy zagrożenia związane z umowami, cyberbezpieczeństwem, prywatnością danych, zwodniczymi praktykami handlowymi, dyskryminacją, dezinformacją, etyką, IP i walidacją.

W rzeczywistości jest prawdopodobne, że każda organizacja ma dużą liczbę pracowników eksperymentujących obecnie z generatywną AI, a ponieważ ta działalność przechodzi od eksperymentów do rzeczywistego wdrożenia, ważne jest, aby być proaktywnym, zanim wystąpią niezamierzone konsekwencje. „Kiedy kod generowany przez AI działa, jest to wspaniałe, wręcz wzniosłe” - mówi Cassie Kozyrkov, Chief Decision Scientist w Google. „Jednak nie zawsze działa, więc nie można zapominać o przetestowaniu danych wyjściowych ChatGPT przed wklejeniem ich w ważnym miejscu”.

Korporacyjna polityka użytkowania i związane z nią szkolenia mogą pomóc w edukacji pracowników na temat niektórych zagrożeń i pułapek związanych z tą technologią, a także zapewnić zasady i zalecenia dotyczące tego, jak najlepiej wykorzystać tę technologię, a tym samym uzyskać największą wartość biznesową bez narażania organizacji na ryzyko.

Mając to na uwadze, oto sześć najlepszych praktyk, które pozwolą opracować korporacyjną politykę wykorzystania generatywnej AI:

Określenie zakresu polityki

Pierwszym krokiem do opracowania korporacyjnej polityki użytkowania jest rozważenie jej zakresu. Na przykład, czy będzie ona obejmować wszystkie formy AI, czy tylko generatywną AI? Skupienie się na generatywnej AI może być użytecznym podejściem, ponieważ dotyczy dużych modeli językowych (LLM), w tym ChatGPT, bez konieczności zagotowania oceanu w całym uniwersum AI. Sposób ustanowienia zarządzania AI dla szerszego tematu, jest inną kwestią i istnieją setki zasobów dostępnych online.

Zaangażowanie wszystkich odpowiednich interesariuszy w całej organizacji

Może to obejmować HR, dział prawny, sprzedaż, marketing, rozwój biznesu, operacje i IT. Każda grupa może widzieć różne przypadki użycia i różne konsekwencje tego, jak treści mogą być wykorzystane lub niewłaściwie wykorzystane. Zaangażowanie działów IT i innowacji może pomóc w wykazaniu, że polityka nie jest tylko ograniczeniem z perspektywy zarządzania ryzykiem, ale zrównoważonym zestawem zaleceń, które mają na celu maksymalizację produktywnego wykorzystania i korzyści biznesowych przy jednoczesnym zarządzaniu ryzykiem biznesowym.

Rozważenie, w jaki sposób generatywna AI jest wykorzystywana obecnie i może być wykorzystywana w przyszłości

Podczas współpracy ze wszystkimi interesariuszami należy wypunktować wszystkie wewnętrzne i zewnętrzne przypadki użycia, które są stosowane obecnie, oraz te, które są przewidywane w przyszłości. Każdy z nich może pomóc w opracowaniu polityki i zapewnić, że obejmujesz nabrzeże. Na przykład, jeśli już widzisz, że zespoły zajmujące się wnioskami, w tym wykonawcy, eksperymentują z redagowaniem treści lub zespoły produktowe eksperymentują z kreatywnymi kopiami marketingowymi, to wiesz, że może istnieć ryzyko związane z własnością intelektualną ze względu na to, że produkty mogą potencjalnie naruszać prawa własności intelektualnej innych osób.

Ciągły rozwój

Podczas opracowywania korporacyjnej polityki użytkowania ważne jest, aby myśleć holistycznie i obejmować informacje, które trafiają do systemu, jak system generatywnej AI jest używany, a następnie jak wykorzystywane są informacje, które wychodzą z systemu. Najlepsza strategia to skoncentrowanie się na wewnętrznych i zewnętrznych przypadkach użycia oraz na wszystkim co pomiędzy. Wymagając, aby wszystkie treści generowane przez AI były oznaczone jako takie w celu zapewnienia przejrzystości i uniknięcia pomylenia z treściami generowanymi przez człowieka, nawet do użytku wewnętrznego, może pomóc w zapobieganiu przypadkowemu ponownemu wykorzystaniu tych treści do użytku zewnętrznego lub działaniu na podstawie informacji, myśląc, że są one faktyczne i dokładne bez weryfikacji.

Szerokie rozpowszechnianie w całej organizacji

Ponieważ zasady często są szybko zapominane lub nawet nie czytane, ważne jest, aby towarzyszyły im odpowiednie szkolenia i edukacja. Może to obejmować opracowanie filmów szkoleniowych i organizowanie sesji na żywo. Na przykład, sesja pytań i odpowiedzi na żywo z udziałem przedstawicieli zespołów IT, innowacji, prawa, marketingu i propozycji, lub innych odpowiednich grup, może pomóc w edukacji pracowników w zakresie przyszłych możliwości i wyzwań. Pamiętajmy o podawaniu wielu przykładów, aby urzeczywistnić to w oczach słuchaczy, np. gdy pojawiają się ważne sprawy prawne, które można przytoczyć jako case studies.

Polityka organizacji musi być „żywym” dokumentem

Podobnie jak w przypadku wszystkich dokumentów dotyczących polityki, warto uczynić z niego żywy dokument i aktualizować go w odpowiednim czasie, w zależności od pojawiających się przypadków użycia, zewnętrznych warunków rynkowych i rozwoju. Warto, by pod dokumentem znalazły się podpisy wszystkim interesariuszy i CEO – podkreśli to wagę dokumentu dla organizacji. Polityka powinna być tylko jednym z wielu elementów szerszego podejścia do zarządzania, niezależnie od tego, czy chodzi o generatywną AI, czy też o zarządzanie AI lub technologią w ogóle.

Nie jest to poradnik prawny, a działy prawne i HR powinny odgrywać główną rolę w zatwierdzaniu i rozpowszechnianiu polityki. Mam jednak nadzieję, że dostarczy to kilku wskazówek do rozważenia. Podobnie jak w przypadku korporacyjnych polityk dotyczących mediów społecznościowych sprzed dziesięciu lub więcej lat, poświęcenie czasu na tę kwestię teraz pomoże złagodzić niespodzianki i zmieniające się ryzyko w nadchodzących latach.

O Autorze:

Nicholas D. Evans pełni funkcję Chief Innovation Officer w firmie WGI, jest także założycielem Thinkers360 oraz Innovators360.

Źródło: CIO

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200