Można przygotować się na pracę generatywną sztuczną inteligencją dzięki eksperymentowaniu i jasnym wytycznym

Najlepsza strategia polega na określeniu najbardziej prawdopodobnych przypadków użycia i po prostu oddania technologii w ręce użytkowników, z zastosowaniem odpowiednich zabezpieczeń. Spodziewajmy się dostosowania procesów biznesowych w miarę dojrzewania technologii.

The Kong/ Shutterstock

Generatywna sztuczna inteligencja niezwykle szybko zyskuje popularność w świecie korporacji, ze szczególnym uwzględnieniem kierownictwa, ale jest wciąż na tyle nowa, że nie ma żadnych ugruntowanych najlepszych praktyk w zakresie wdrażania lub szkolenia. Przygotowanie do korzystania z tej technologii może obejmować kilka różnych podejść, od prowadzenia projektów pilotażowych i szkoleń typu „lunch i nauka” po tworzenie centrów doskonałości opartych na ekspertach, którzy uczą innych pracowników i działają jako centralne zasoby. Liderzy IT mogą pamiętać, jak w ciągu ostatnich 10 lat niektóre działy użytkowników uciekły do chmury i dokonały własnych ustaleń dotyczących uruchamiania instancji oprogramowania - a następnie zrzuciły cały bałagan na kolana IT, gdy stało się to niemożliwe do opanowania. Generatywna sztuczna inteligencja może sprawić, że taka sytuacja będzie wyglądać dziecinnie prosto, istnieją jednak strategie pozwalające zacząć zarządzać nią z wyprzedzeniem. „To niezwykłe, jak szybko ten zestaw technologii wszedł do świadomości liderów biznesu. Ludzie używają tego bez sankcji ze strony korporacji, co pokazuje jak bardzo jest to atrakcyjne”,mówi Michael Chui, partner w firmie konsultingowej McKinsey.

Z kolei Ritu Jyoti, wiceprezes grupy ds. światowych badań nad sztuczną inteligencją w IDC, twierdzi, że dążenie do przyjęcia generatywnej sztucznej inteligencji pochodzi z góry. „Kadra zarządzająca stała się żarłocznymi liderami AI. To teraz główny nurt i zadają trudne pytania swoim bezpośrednim podwładnym”. Jej podsumowanie to: należy przyjąć generatywną sztuczną inteligencję, ustanowić ramy jej wykorzystania i tworzyć wartość zarówno dla organizacji, jak i pracowników.

Zobacz również:

  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Copilot Pro czyli subskrypcja na AI - wkraczamy w nową erę usług?
  • Na rynku AI toczy się ostra walka o prymat. Dwaj główni rywale to ChatGPT i Gemini

Osiągnięcie tego wszystkiego nie będzie łatwe. Generatywna sztuczna inteligencja wiąże się z wieloma zagrożeniami - w tym z nieprawidłowymi, stronniczymi lub sfabrykowanymi wynikami; naruszeniami praw autorskich i prywatności; oraz wyciekiem danych firmowych - dlatego ważne jest, aby liderzy IT i firm utrzymywali kontrolę nad wszelkimi pracami generatywnej sztucznej inteligencji prowadzonymi w ich organizacjach. Oto jak zacząć.

Decyzja, które przypadki użycia należy realizować

Pierwszym krokiem powinno być podjęcie decyzji, gdzie zastosować generatywną sztuczną inteligencję w swojej firmie, zarówno krótkoterminowo, jak i w przyszłości. Boston Consulting Group (BCG) wylicza te „złote” przypadki użycia – „rzeczy, które przynoszą prawdziwą przewagę konkurencyjną i wywierają największy wpływ” w porównaniu do korzystania z dzisiejszych narzędzi - w niedawnym raporcie. Zbierz korporacyjny trust mózgów, aby rozpocząć badanie tych scenariuszy.

Zwróć się do swoich strategicznych partnerów handlowych, aby zobaczyć, co robią; wielu z nich planuje włączyć generatywną sztuczną inteligencję do oprogramowania, od obsługi klienta po zarządzanie transportem. Niektóre z tych narzędzi już istnieją, przynajmniej w wersji beta. Zaoferuj pomoc w testowaniu tych aplikacji; pomoże to nauczyć Twoje zespoły technologii generatywnej sztucznej inteligencji w kontekście, który już znają.

Wiele już napisano o interesujących zastosowaniach dzisiejszych niezwykle popularnych narzędzi generatywnej sztucznej inteligencji, w tym ChatGPT i DALL-E. I choć tworzenie nowych form sztuki jest fajne i fascynujące, większość firm nie będzie w najbliższym czasie potrzebować wyjaśnienia, jak usunąć kanapkę z masłem orzechowym i żelkami z magnetowidu (w dodatku napisanego w stylu Jakuba Wujka)

Zamiast tego większość ekspertów sugeruje organizacjom rozpoczęcie od wykorzystania technologii do tworzenia pierwszych wersji roboczych dokumentów, od podsumowań odpowiednich badań po informacje, które można wstawić do przypadków biznesowych lub innych prac. „Prawie każdy pracownik wiedzy może zwiększyć swoją produktywność”, uważa Chui z McKinsey.

W rzeczywistości McKinsey przeprowadził sześciotygodniowy pilotażowy program generatywnej sztucznej inteligencji z udziałem niektórych swoich programistów i zaobserwował dwucyfrowy wzrost zarówno dokładności kodu, jak i szybkości kodowania.

Jonathan Vielhaber, dyrektor ds. technologii informatycznych w firmie badawczej Cognitive Research Corp. (CRC), używa ChatGPT-3 do badania kwestii bezpieczeństwa, w tym sposobu testowania różnych exploitów oraz zalet, wyzwań i wytycznych dotyczących wdrażania nowego menedżera haseł. Dokonuje on pewnych zmian w słownictwie, aby upewnić się, że wynik jest w jego własnym stylu, a następnie umieszcza informacje w dokumencie uzasadnienia biznesowego.

Takie podejście pozwoliło mu zaoszczędzić dwie z czterech godzin potrzebnych na stworzenie każdej propozycji – „warte” opłaty w wysokości 20 USD miesięcznie, mówi. W szczególności exploity bezpieczeństwa mogą mieć charakter techniczny, a sztuczna inteligencja może pomóc w uzyskaniu dobrego, łatwego do zrozumienia obrazu ich działania.

Niech użytkownicy się tym zajmą

Aby pomóc w rozpoznaniu aplikacji, które odniosą największe korzyści z generatywnej sztucznej inteligencji w ciągu najbliższego roku, oddaj technologię w ręce kluczowych działów użytkowników, niezależnie od tego, czy jest to marketing, obsługa klienta, sprzedaż czy inżynieria, i zleć kilka pomysłów. Daj ludziom czas i narzędzia, aby zaczęli ją wypróbowywać, aby dowiedzieć się, co może zrobić i jakie są jej ograniczenia. I oczekuj, że obie strony tego równania będą się zmieniać.

Poproś pracowników o zastosowanie generatywnej sztucznej inteligencji w ich istniejącym przepływie pracy, upewniając się, że nikt nie wykorzystuje żadnych zastrzeżonych danych ani danych osobowych klientów lub pracowników. Gdy dostarczasz dane do wielu narzędzi generatywnej sztucznej inteligencji, przekazują one dane z powrotem do swoich dużych modeli językowych (LLM), aby się na nich uczyć, a dane są następnie wypuszczane w eter.

Śledź, kto co robi, aby zespoły mogły uczyć się od siebie nawzajem i abyś mógł zrozumieć szerszy obraz tego, co dzieje się w firmie.

Teraz, gdy Vielhaber z CRC jest płacącym klientem ChatGPT, planuje wdrożyć w swojej firmie sesje typu „lunch i nauka”, aby pomóc wprowadzić generatywną sztuczną inteligencję do innych i pozwolić im „zobaczyć, jakie są możliwości”.

Zacznij szkolić swoich pracowników

W zależności od tego, jakie są twoje długoterminowe cele związane z tą technologią, być może będziesz musiał zaplanować bardziej formalne sposoby rozpowszechniania wiedzy. Jyoti z IDC jest wielkim fanem podejścia polegającego na tworzeniu centrów doskonałości, w których centralna grupa może szkolić różnych pracowników, a nawet osadzać ich w różnych jednostkach biznesowych, aby pomóc im jak najskuteczniej wdrożyć generatywną sztuczną inteligencję.

W przyszłości mogą być potrzebne nowe rodzaje stanowisk, od dyrektora ds. sztucznej inteligencji po trenerów sztucznej inteligencji, audytorów i inżynierów, którzy rozumieją, jak tworzyć zapytania dostosowane do każdego narzędzia generatywnej sztucznej inteligencji, aby uzyskać pożądane wyniki.

Zatrudnianie ekspertów od generatywnej sztucznej inteligencji nie będzie łatwe, ponieważ staje się na nich coraz większe zapotrzebowanie. Będziesz musiał zwrócić się do rekruterów i portali pracy, uczestniczyć w konferencjach poświęconych sztucznej inteligencji i budować relacje z lokalnymi szkołami wyższymi i uniwersytetami. Być może w interesie firmy będzie stworzenie własnych programów LLM, dopracowanie tych już dostępnych od dostawców i/lub hostowanie programów LLM we własnym zakresie, aby uniknąć problemów związanych z bezpieczeństwem. Wszystkie te opcje będą wymagały większej liczby ekspertów technicznych, a także dodatkowej infrastruktury, zgodnie z raportem BCG.

Geetanjli Dhanjal, starszy dyrektor w firmie konsultingowej Yantra, rozszerza praktykę swojej firmy w zakresie sztucznej inteligencji. Koncentruje się na przekwalifikowywaniu obecnych pracowników, zatrudnianiu zasobów zewnętrznych i wprowadzaniu absolwentów szkół wyższych do programów „enablement” [Change enablement to praktyka zarządzania w ITIL 4, wprowadzająca zmiany w uporządkowany i bezpieczny sposób, skuteczne balansując między oczekiwaną korzyścią a potencjalnym ryzykiem – przyp. redakcji], które obejmują naukę o danych, szkolenia internetowe i warsztaty. Tworzy centra doskonałości zarówno w Indiach, jak i Kalifornii i twierdzi, że „ułatwia to zatrudnianie lokalnych talentów” w obu regionach.

I pamiętaj, aby porozmawiać z pracownikami o tym, jak w rezultacie może zmienić się ich kariera. Nawet teraz sztuczna inteligencja może wywoływać obawy o likwidację określonych stanowisk. Chui z McKinsey używa analogii do arkuszy kalkulacyjnych. „Nadal ich używamy, ale teraz mamy analityków, którzy modelują dane zamiast je obliczać”, mówi. Na przykład programiści korzystający z generatywnej sztucznej inteligencji mogą skoncentrować się na poprawie jakości kodu i zapewnieniu zgodności z wymogami bezpieczeństwa.

Gdy sztuczna inteligencja tworzy pierwsze wersje robocze, ludzie nadal są potrzebni do sprawdzania i udoskonalania treści oraz poszukiwania nowych rodzajów strategii skierowanych do klientów. „Śledź nastroje pracowników”, radzi raport BCG. „Stwórz strategiczny plan zatrudnienia i dostosowuj go w miarę rozwoju technologii”.

To dwukierunkowa ulica, mówi Dhanjal. „Musimy wspierać pracowników szkoleniami, zasobami i odpowiednim środowiskiem do rozwoju”. Pracownicy jednakże muszą być również otwarci na zmiany i przekwalifikowywać się w nowych obszarach.

Bądź ostrożny

Tak jak ważne jest, aby wskoczyć do gry, ważne jest również, aby zachować pewną perspektywę co do ryzyka związanego z dzisiejszymi narzędziami. Generatywna sztuczna inteligencja jest podatna na zjawisko znane jako „halucynacje”, w którym przy braku wystarczającej ilości istotnych danych narzędzie po prostu wymyśla informacje. Czasami może to przynieść zabawne rezultaty, ale nie zawsze jest to oczywiste - a prawnicy korporacyjni mogą nie uznać tego za zabawne.

Rzeczywiście, generatywna sztuczna inteligencja „może się mylić bardziej niż ma rację”, mówi Alex Zhavoronkov, dyrektor generalny Insilico Medicine, firmy farmaceutycznej i AI, która oparła swój model biznesowy na generatywnej sztucznej inteligencji. Jednak w przeciwieństwie do większości firm, Insilico wykorzystuje 42 różne silniki do testowania dokładności każdego modelu. W szerszym świecie „można poświęcić dokładność na rzecz szybkości” w przypadku niektórych dzisiejszych narzędzi generatywnej sztucznej inteligencji zorientowanych na konsumenta, mówi.

W lutym firma Insilico otrzymała od amerykańskiej Agencji ds. Żywności i Leków zatwierdzenie fazy 1 dla cząsteczki wygenerowanej przez sztuczną inteligencję, wykorzystywanej jako podstawa leku do leczenia rzadkiej choroby płuc. Jak twierdzi Zhavoronkov, firma przeszła tę pierwszą fazę w mniej niż 30 miesięcy i wydała około 3 milionów dolarów, w porównaniu z tradycyjnymi kosztami wynoszącymi około 10 razy więcej. Korzyści ekonomiczne wynikające z zastosowania generatywnej sztucznej inteligencji oznaczają, że firma może zająć się innymi rzadkimi chorobami, zwanymi również chorobami „sierocymi”, w które większość firm farmaceutycznych niechętnie inwestuje, a także schorzeniami występującymi w szerszych grupach społecznych.

Firma korzysta z własnych, wysoce technicznych narzędzi, w rękach chemików, biofizyków i innych ekspertów. Zhavoronkov wyjaśnia jednak, że „nadal ostrożnie podchodzimy” do wykorzystywania generatywnej sztucznej inteligencji do generowania tekstu ze względu na niedokładność i kwestie własności intelektualnej. „Chcę zobaczyć, jak Microsoft i Google wprowadzają to do swoich pakietów oprogramowania, zanim zacznę polegać na tym szerzej”, mówi.

Sprzedawcy i badacze pracują nad sposobami identyfikowania i wykluczania treści chronionych prawem autorskim z wyników sztucznej inteligencji lub przynajmniej ostrzegania użytkowników o źródłach wyników, ale jest jeszcze bardzo wcześnie. I właśnie dlatego, przynajmniej do czasu ulepszenia narzędzi, ludzie nadal muszą być w pętli jako audytorzy.

Przygotuj swoje wytyczne

W tym świecie etyczna sztuczna inteligencja jest ważniejsza niż kiedykolwiek, mówi Abhishek Gupta, założyciel i główny badacz w Montreal AI Ethics Institute. Zasiada on również w radzie ds. etyki CSE AI firmy Microsoft oraz jako ekspert ds. etyki AI w Boston Consulting Group.

„Odpowiedzialna sztuczna inteligencja to akcelerator dający możliwość bezpiecznego i pewnego eksperymentowania”, wyjaśnia. „Oznacza to, że nie musisz nieustannie oglądać się przez ramię” i warto poświęcić czas na opracowanie kontroli nad tym, co pracownicy mogą, a czego nie mogą robić. „Wyznacz szerokie granice”, sugeruje, opierając się na wartościach i celach korporacyjnych. Następnie przekształć je w egzekwowalne zasady, które przekażesz pracownikom.

Vielhaber z CRC mówi, że w przyszłości tworzenie wytycznych dla sztucznej inteligencji będzie na porządku dziennym. Firma i tak jest w trakcie przepisywania swoich zasad związanych z IT i bezpieczeństwem, a sztuczna inteligencja będzie tego częścią. „Myślę, że przekroczyliśmy próg w sztucznej inteligencji, który otworzy wiele rzeczy w ciągu najbliższych kilku lat, a ludzie wymyślą naprawdę pomysłowe sposoby jej wykorzystania”.

Źródło: Computerworld USA

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200