7 kluczowych pytań zanim wdrożysz AI

Na jakie pytania powinni odpowiedzieć sobie dyrektorzy ds. informatyki przed wdrożeniem generatywnej sztucznej inteligencji?

7 kluczowych pytań zanim wdrożysz AI

Fot. viarami/Pixabay

Liderzy IT i firmy, które reprezentują, muszą być w stanie bardzo szybko wykorzystać moc generatywnej sztucznej inteligencji, a także zrozumieć i zarządzać potencjalnymi lukami, uprzedzeniami i innymi zagrożeniami, aby chronić wrażliwe dane i utrzymać zaufanie klientów.

Niektóre firmy wykorzystują generatywną sztuczną inteligencję do pisania kodu, a inne do tworzenia tekstów marketingowych lub napędzania chatbotów. Są też takie jak SmileDirectClub, które tworzą obrazy, aby odpowiedzieć na pytanie, jak lepiej obsługiwać swoich klientów.

Zobacz również:

  • Autonomia w autach nie tak bezpieczna - miażdżący raport o Tesli
  • 9 cech wielkich liderów IT
  • Generatywna sztuczna inteligencja może zdziesiątkować branżę call center

SmileDirectClub, brytyjska firma zajmująca się teledentystyką, wykorzystuje generatywną sztuczną inteligencję do tworzenia zębów. A dokładniej do tego, aby pomóc ludziom zrozumieć, w jaki sposób można poprawić ich zęby.

SmileDirectClub zbudował własną generatywną sztuczną inteligencję, wykorzystując własny zestaw danych, na własnych serwerach, zgodnie z HIPAA, RODO i innymi przepisami.

Firma rozpoczęła projekt trzy lata temu z partnerem zewnętrznym. Następnie, gdy to nie zadziałało, zatrudniła własny zespół do zbudowania własnych modeli, których potrzebowała.

"Mamy platformę o nazwie SmileMaker" - mówi CIO, Justin Skinner. "Robimy zdjęcie zębów za pomocą telefonu, generujemy reprezentację modelu 3D i możemy przewidzieć za pomocą sztucznej inteligencji, jak wyglądałby plan prostowania, ile czasu by to zajęło i jak wyglądałby po zakończeniu".

Istniejące platformy generatywnej sztucznej inteligencji, takie jak ChatGPT OpenAI, Google Bard lub Stable Diffusion, nie są szkolone na obrazach 3D zębów. Mało tego, żadna z nich nie była nawet dostępna w momencie uruchomienia SmileDirectClub.

„Nie ma nic zbliżonego do poziomu dokładności, którego potrzebujemy" - mówi Skinner. "Zęby są bardzo skomplikowane. Nie ma na nich zbyt wielu znaków szczególnych, więc uzyskanie dokładnego modelu 3D z telefonu jest trudnym zadaniem".

Pierwsza generacja narzędzia została uruchomiona w listopadzie ubiegłego roku w Australii i w maju tego roku w Stanach Zjednoczonych, a do tej pory skorzystało z niego około 100 000 osób. Kolejna wersja będzie zawierać fotorealistyczną projekcję tego, jak będą wyglądać nowe zęby.

Obecnie narzędzie oferuje klientom jedynie wstępny plan leczenia, mówi Skinner. Nadal muszą oni udać się do dentysty lub użyć zestawu do wycisków w domu, aby uzyskać wycisk w wysokiej rozdzielczości. To również może ulec zmianie w przyszłości wraz z rozwojem technologii.

Ale to nie jedyny sposób, w jaki SmileDirectClub chce wykorzystać generatywną sztuczną inteligencję. "Badamy - ze względu na redukcję kosztów i wydajność - wykorzystanie narzędzi takich jak ChatGPT i Bard, i nie możemy się doczekać zabawy z Microsoft Copilot" - mówi Skinner.

Jego firma nie jest osamotniona. Według niedawnej ankiety, przeprowadzonej wśród kadry kierowniczej wyższego szczebla przez The Harris Poll w imieniu Insight Enterprises, 39% firm ustanowiło już zasady lub strategie dotyczące generatywnej sztucznej inteligencji, a 42% jest w trakcie ich opracowywania. Kolejne 17% planuje, ale jeszcze nie zaczęło. Tylko 1% firm nie planuje opracować planów generatywnej sztucznej inteligencji.

Gdzie jest wartość biznesowa?

Według Harris Poll, 72% kadry kierowniczej twierdzi, że planuje wdrożyć technologie generatywnej sztucznej inteligencji w ciągu najbliższych trzech lat w celu poprawy produktywności pracowników. 66% twierdzi, że planuje wykorzystać je do poprawy obsługi klienta. Ponadto 53% twierdzi, że pomoże im to w badaniach i rozwoju, a 50% w automatyzacji tworzenia lub testowania oprogramowania.

A to tylko wierzchołek góry lodowej, jeśli chodzi o przypadki użycia generatywnej sztucznej inteligencji w przedsiębiorstwach - i szybko się zmienia.

CIO muszą ciężko pracować, aby być na bieżąco z rozwojem sytuacji, mówi Skinner. Co ważniejsze, CIO muszą zrozumieć, w jaki sposób możliwości generatywnej sztucznej inteligencji w ogóle odnoszą się do ich działalności.

"To pierwsze pytanie", mówi. "Czy naprawdę rozumiem te rzeczy? I czy dogłębnie rozumiem, jak zastosować je w mojej firmie, aby uzyskać wartość?".

Biorąc pod uwagę szybkie tempo zmian, zrozumienie generatywnej sztucznej inteligencji oznacza eksperymentowanie z nią - i robienie tego na dużą skalę.

Właśnie takie podejście przyjmuje Insight Enterprises. Integrator rozwiązań z siedzibą w Tempe ma obecnie 10 000 pracowników korzystających z narzędzi generatywnej sztucznej inteligencji i dzielących się swoimi doświadczeniami, aby firma mogła poznać zarówno dobre, jak i złe strony.

"To jedno z największych wdrożeń generatywnej sztucznej inteligencji, jakie znam" - mówi David McCurdy, główny architekt korporacyjny i CTO w Insight. "Moją misją jest zrozumienie, co model robi dobrze, a co źle".

"Usiedliśmy, nakarmiliśmy go umowami i zadaliśmy mu szczegółowe pytania na ich temat: gdzie są zobowiązania, gdzie jest ryzyko" - mówi. "To jest prawdziwe mięso i kości, rozdzieranie umowy na strzępy i było w 100% skuteczne. To będzie przypadek użycia na całym świecie".

Pracownik magazynu wpadł na pomysł wykorzystania generatywnej sztucznej inteligencji, aby pomóc mu w pisaniu skryptów dla SAP. "Nie musiał otwierać zgłoszenia ani nikogo pytać, jak to zrobić" - mówi McCurdy. "Właśnie takich rzeczy szukam i to jest niesamowite".

Pytanie numer jeden, które każdy CIO powinien sobie zadać, to jak jego firma planuje wykorzystać generatywną sztuczną inteligencję w ciągu najbliższego roku lub dwóch lat, mówi. "Ci, którzy mówią, że nie ma tego w planach, popełniają poważny błąd" - dodaje. "Niektórzy uważają, że poczekają i zobaczą, ale stracą produktywność. Ich zarządy i dyrektorzy generalni będą pytać: "Dlaczego inne firmy kochają tę technologię? Dlaczego my nie?".

Jednak znalezienie możliwości, w których generatywna sztuczna inteligencja może zapewnić wartość biznesową na poziomie dokładności, jaki jest w stanie zapewnić dzisiaj, to tylko niewielka część obrazu.

Jaka jest nasza strategia wdrażania?

Firmy chcące wejść do gry generatywnej sztucznej inteligencji mają wiele różnych sposobów, aby to zrobić.

Mogą na przykład dostrajać i uruchamiać własne modele. Każdego tygodnia dostępne są nowe modele open source, z których każdy jest bardziej wydajny niż poprzedni. Dostawcy danych i sztucznej inteligencji oferują komercyjne alternatywy, które mogą działać lokalnie lub w prywatnych chmurach.

Z kolei tradycyjni dostawcy SaaS, tacy jak Salesforce i oczywiście Microsoft i Google, wbudowują generatywną sztuczną inteligencję we wszystkie swoje usługi. Modele te będą dostosowane do konkretnych przypadków użycia biznesowego i utrzymywane przez dostawców, którzy już wiedzą, jak zarządzać prywatnością i ryzykiem.

Wreszcie, istnieją modele publiczne, takie jak ChatGPT, do których mniejsze firmy mogą uzyskać dostęp bezpośrednio za pośrednictwem swoich publicznych interfejsów, a większe firmy mogą korzystać z zabezpieczonych chmur prywatnych. Insight, na przykład, uruchamia GPT 3.5 Turbo i GPT 4.0 OpenAI hostowane w prywatnej chmurze Azure.

Inną opcją dla firm o bardzo szczególnych wymaganiach, ale nie zainteresowanych szkoleniem własnych modeli, jest użycie rozwiązania typu ChatGPT, a następnie zapewnienie mu dostępu do danych firmy za pośrednictwem wektorowej bazy danych.

"Wartością jest wykorzystanie istniejących modeli i umieszczenie obok nich własnych danych" - mówi McCurdy. "To właśnie w tym tkwi innowacyjność i produktywność". Jest to funkcjonalnie równoważne wklejaniu dokumentów do ChatGPT w celu ich przeanalizowania przed zadaniem pytań, z tym wyjątkiem, że dokumenty nie będą musiały być wklejane za każdym razem. Na przykład Insight wziął wszystkie materiały, które kiedykolwiek napisał, wszystkie transkrypcje wywiadów i załadował je do wektorowej bazy danych, do której może się odwoływać generatywna sztuczna inteligencja.

Czy możemy zapewnić bezpieczeństwo naszym danym, klientom i pracownikom?

Według majowego raportu PricewaterhouseCoopers, prawie wszyscy liderzy biznesowi twierdzą, że ich firma priorytetowo traktuje co najmniej jedną inicjatywę związaną z systemami sztucznej inteligencji w najbliższym czasie.

Jednak tylko 35% kadry kierowniczej twierdzi, że ich firma skupi się na poprawie zarządzania systemami sztucznej inteligencji w ciągu najbliższych 12 miesięcy, a tylko 32% specjalistów ds. ryzyka twierdzi, że są obecnie zaangażowani w etap planowania i strategii zastosowań generatywnej sztucznej inteligencji.

Podobna ankieta przeprowadzona wśród kadry kierowniczej wyższego szczebla przez KPMG, opublikowana w kwietniu, wykazała, że tylko 6% organizacji ma dedykowany zespół do oceny ryzyka związanego z generatywną sztuczną inteligencją i wdrażania strategii mitygacji ryzyka.

A tylko 5% ma dojrzały program odpowiedzialnego zarządzania sztuczną inteligencją, choć 19% pracuje nad nim, a prawie połowa twierdzi, że planuje go stworzyć.

Jest to szczególnie ważne dla firm korzystających z zewnętrznych platform generatywnej sztucznej inteligencji. Na przykład Skinner z SmileDirectClub również przygląda się platformom takim jak ChatGPT ze względu na potencjalne korzyści w zakresie produktywności, ale obawia się ryzyka związanego z danymi i prywatnością.

"Ważne jest, aby zrozumieć, w jaki sposób dane są chronione, zanim wskoczy się na głęboką wodę" - mówi. Firma ma zamiar rozpocząć wewnętrzną kampanię komunikacyjną i edukacyjną, aby pomóc pracownikom zrozumieć, co się dzieje oraz korzyści i ograniczenia generatywnej sztucznej inteligencji.

"Musisz upewnić się, że ustalasz zasady bezpieczeństwa w swojej firmie i że członkowie twojego zespołu wiedzą, jakie są te zasady" - mówi. "W tej chwili nasze zasady są takie, że nie można przesyłać danych klientów na te platformy".

Firma czeka również, aby zobaczyć, jakie opcje klasy korporacyjnej pojawią się online. "Microsoft Copilot, ze względu na integrację z Office 365, będzie prawdopodobnie wykorzystywany jako pierwszy na dużą skalę" - mówi.

Według Matta Barringtona, lidera ds. nowych technologii w Ernst & Young Americas, około połowa firm, z którymi rozmawia, jest wystarczająco zaniepokojona potencjalnym ryzykiem związanym z wykorzystaniem ChatGPT i podobnych platform. "Dopóki tego nie zrozumiemy, blokujemy to" - mówi.

Druga połowa chce zobaczyć, jak mogą zbudować odpowiednie ramy do szkolenia i umożliwiania ludziom korzystania z tych platform.

Ponadto, nawet w tych 50%, które zastopowały wykorzystanie ChatGPT, pracownicy nadal z niego korzystają. "Pociąg odjechał ze stacji" – mówi Barrington. "Siła tego narzędzia jest tak duża, że trudno ją kontrolować. To jak wczesne dni chmury obliczeniowej".

Jak uchronić się przed stronniczością?

Radzenie sobie z uprzedzeniami jest wystarczająco trudne w przypadku tradycyjnych systemów uczenia maszynowego, w których firma pracuje z jasno określonym zestawem danych. Jednak w przypadku dużych modeli podstawowych, takich jak te używane do generowania kodu, tekstu lub obrazu, ten zestaw danych szkoleniowych może być całkowicie nieznany. Ponadto sposoby uczenia się modeli są niezwykle nieprzejrzyste - nawet naukowcy, którzy je opracowali, nie rozumieją jeszcze w pełni, jak to wszystko działa. Jest to coś, co szczególnie niepokoi organy regulacyjne.

"Unia Europejska jest liderem" - mówi Barrington z EY. "Proponują ustawę o sztucznej inteligencji, a Sam Altman z OpenAI wzywa do wprowadzenia rygorystycznych przepisów. Wiele jeszcze przed nami".

I Altman nie jest jedyny. Według czerwcowej ankiety Boston Consulting Group przeprowadzonej wśród prawie 13 000 liderów biznesowych, menedżerów i pracowników pierwszej linii, 79% popiera regulacje dotyczące sztucznej inteligencji.

Im wyższa wrażliwość danych gromadzonych przez firmę, tym bardziej ostrożne muszą być firmy, mówi. "Jesteśmy optymistami, jeśli chodzi o wpływ sztucznej inteligencji na biznes, ale równie ostrożni, jeśli chodzi o odpowiedzialne i etyczne wdrażanie" - mówi. "Jedną z rzeczy, na których będziemy się mocno opierać, jest odpowiedzialne wykorzystanie sztucznej inteligencji".

Jeśli firma przejmie wiodącą rolę w uczeniu się, jak nie tylko skutecznie wykorzystywać generatywną sztuczną inteligencję, ale także zapewniać dokładność, kontrolę i odpowiedzialne użytkowanie, będzie miała przewagę, mówi, nawet jeśli technologia i przepisy będą się nadal zmieniać.

Dlatego też firma transkrypcyjna Rev nie spieszy się z dodaniem generatywnej sztucznej inteligencji do pakietu oferowanych przez siebie narzędzi.

Firma, która działa na rynku od prawie 12 lat, zaczęła od oferowania usług transkrypcji opartych na ludziach i stopniowo dodawała narzędzia sztucznej inteligencji.

Obecnie firma bada wykorzystanie generatywnej sztucznej inteligencji do automatycznego tworzenia podsumowań spotkań.

"Poświęcamy trochę czasu na zapewnienie należytej staranności i upewnienie się, że te rzeczy działają tak, jak chcemy" - mówi Migüel Jetté, szef działu badań i rozwoju oraz sztucznej inteligencji w Rev.

Jak dodaje, podsumowania nie są tak ryzykowne jak inne zastosowania generatywnej sztucznej inteligencji. "Jest to dobrze zdefiniowana przestrzeń problemowa i łatwo jest upewnić się, że model zachowuje się prawidłowo. Nie jest to całkowicie otwarta rzecz, jak generowanie dowolnego rodzaju obrazu na podstawie podpowiedzi, ale nadal potrzeba wsparcia".

Obejmuje to upewnienie się, że model jest uczciwy, bezstronny, wytłumaczalny, odpowiedzialny i zgodny z wymogami prywatności, mówi.

"Przeprowadzamy również dość rygorystyczne testy alfa z kilkoma naszymi największymi użytkownikami, aby upewnić się, że nasz produkt zachowuje się tak, jak przewidywaliśmy" - mówi. "Wykorzystanie, które mamy obecnie, jest dość ograniczone, do tego stopnia, że nie martwię się zbytnio o nieprawidłowe działanie modelu generatywnego".

Z kim możemy współpracować?

Dla większości firm najskuteczniejszym sposobem wdrożenia generatywnej sztucznej inteligencji będzie poleganie na zaufanych partnerach, mówi analityk Forrester Research Michele Goetz.

Prawdopodobnie miną co najmniej trzy lata, zanim firmy zaczną wdrażać własne rozwiązania generatywnej sztucznej inteligencji. Do tego czasu firmy będą bawić się technologią w bezpiecznych strefach, eksperymentując, jednocześnie polegając na istniejących partnerach dostawców w zakresie natychmiastowych wdrożeń. Ale przedsiębiorstwa nadal będą musiały dołożyć należytej staranności, mówi.

"Dostawcy twierdzą, że uruchamiają sztuczną inteligencję jako usługę i jest ona odizolowana" - mówi. "Ale nadal może to być szkolenie modelu, a wiedza i własność intelektualna mogą nadal trafiać do modelu podstawowego".

Na przykład, jeśli pracownik prześle poufny dokument do korekty, a sztuczna inteligencja zostanie następnie przeszkolona w zakresie tej interakcji, może nauczyć się treści tego dokumentu i wykorzystać tę wiedzę, aby odpowiedzieć na pytania użytkowników z innych firm, pozwalając na wyciek poufnych informacji.

Istnieją również inne pytania, które CIO mogą chcieć zadać swoim dostawcom, na przykład skąd pochodzą oryginalne dane szkoleniowe oraz w jaki sposób są one weryfikowane i zarządzane. Ponadto, w jaki sposób model jest aktualizowany i jak źródła danych są zarządzane w czasie.

"CIO muszą mieć pewność, że dostawca postępuje właściwie" - mówi. "I właśnie dlatego wiele firm nie jest jeszcze gotowych na dopuszczenie nowszej generatywnej sztucznej inteligencji do swoich organizacji w obszarach, których nie mogą jej skutecznie kontrolować". Dotyczy to w szczególności obszarów podlegających ścisłym regulacjom.

Ile to będzie kosztować?

Koszty wbudowanej sztucznej inteligencji są stosunkowo przejrzyste. Firmy zajmujące się oprogramowaniem dla przedsiębiorstw, dodające generatywną sztuczną inteligencję do swoich zestawów narzędzi - takie jak Microsoft, Google, Adobe i Salesforce - sprawiają, że ceny są stosunkowo jasne. Jednak gdy firmy zaczynają budować własną generatywną sztuczną inteligencję, sytuacja staje się znacznie bardziej skomplikowana.

W całym podekscytowaniu generatywną sztuczną inteligencją firmy mogą czasami tracić z oczu fakt, że duże modele językowe mogą mieć bardzo wysokie wymagania obliczeniowe.

"Ludzie chcą zacząć działać i zobaczyć wyniki, ale nie przemyśleli konsekwencji robienia tego na dużą skalę" - mówi Ruben Schaubroeck, starszy partner w McKinsey & Company. "Nie chcą korzystać z publicznego ChatGPT ze względu na prywatność, bezpieczeństwo i inne powody. Chcą też wykorzystywać własne dane i umożliwiać ich przeszukiwanie za pomocą interfejsów podobnych do ChatGPT. Widzimy też, jak organizacje opracowują duże modele językowe na podstawie własnych danych".

W międzyczasie szybko pojawiają się i ewoluują mniejsze modele językowe. "Tempo zmian jest tutaj ogromne" - mówi Schaubroeck. Firmy zaczynają przeprowadzać weryfikacje koncepcji, ale nie mówi się jeszcze tak dużo o całkowitym koszcie posiadania. "To pytanie, o którym nie słyszymy zbyt często, ale nie należy być w tej kwestii naiwnym".

Czy infrastruktura danych jest gotowa na generatywną sztuczną inteligencję?

Wbudowana generatywna sztuczna inteligencja jest łatwa do wdrożenia dla firm, ponieważ dostawca dodaje sztuczną inteligencję tuż obok danych, których potrzebuje do działania.

Przykładowo, Adobe dodaje generatywne wypełnienie AI do Photoshopa, a obraz źródłowy, z którym musi pracować, znajduje się właśnie tam. Gdy Google doda generatywną sztuczną inteligencję do Gmaila lub Microsoft doda ją do Office 365, wszystkie potrzebne dokumenty będą łatwo dostępne. Jednak bardziej złożone wdrożenia w przedsiębiorstwach wymagają solidnych podstaw danych, nad czym wiele firm wciąż pracuje.

"Wiele firm wciąż nie jest gotowych" - mówi Nick Amabile, CEO w DAS42, firmie konsultingowej zajmującej się danymi i analizą. Dane muszą być scentralizowane i zoptymalizowane pod kątem aplikacji AI, mówi. Na przykład firma może mieć dane rozproszone między różnymi systemami zaplecza, a uzyskanie jak największej wartości z AI będzie wymagało pobrania i skorelowania tych danych.

"Dużą zaletą sztucznej inteligencji jest to, że jest ona w stanie analizować lub syntetyzować dane w skali, do której ludzie nie są zdolni" - mówi.

Jeśli chodzi o sztuczną inteligencję, dane są paliwem, potwierdza Sreekanth Menon, wiceprezes i globalny lider usług AI/ML w Genpact.

To sprawia, że jeszcze pilniejsze niż kiedykolwiek jest umożliwienie przedsiębiorstwu korzystania ze sztucznej inteligencji, z odpowiednimi danymi, oczyszczonymi danymi, narzędziami, ładem danych i szynami ochronnymi, mówi, dodając "i czy mój obecny strumień danych jest wystarczający, aby moja generatywna sztuczna inteligencja odniosła sukces".

To dopiero początek tego, co będzie potrzebne, aby przygotować przedsiębiorstwo do korzystania z generatywnej sztucznej inteligencji, mówi. Na przykład, firmy będą chciały upewnić się, że ich generatywna sztuczna inteligencja jest wytłumaczalna, przejrzysta i etyczna. Będzie to wymagało platform obserwowalności, a platformy te dopiero zaczynają pojawiać się w przypadku dużych modeli językowych.

Platformy te muszą być w stanie śledzić nie tylko dokładność wyników, ale także koszty, opóźnienia, przejrzystość, stronniczość oraz bezpieczeństwo i szybkie monitorowanie. Następnie modele zazwyczaj wymagają spójnego nadzoru, aby upewnić się, że nie rozpadają się w czasie.

"W tej chwili musisz wprowadzić wsparcie i zasady" - mówi. Następnie firmy mogą rozpocząć inkubację generatywnej sztucznej inteligencji, a gdy osiągną dojrzałość, zdemokratyzować je w całym przedsiębiorstwie.

Artykuł pochodzi z CIO.com

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200