Ryż z wybielaczem i gulasz z człowieka, czyli 4 powody, dla których projekty generatywnej sztucznej inteligencji kończą się niepowodzeniem

Kwestie związane z danymi są nadal jednym z głównych powodów, dla których projekty AI nie spełniają oczekiwań, ale pojawienie się generatywnej sztucznej inteligencji dodało kilka nowych zwrotów akcji. Bot AI zaproponował np. zjedzenie ryżu z wybielaczem oraz gulasz z ludzkiego mięsa jako „zaskakującą przygodę kulinarną”.

Shutterstock

W czerwcu nowozelandzka sieć supermarketów Pak’nSave wypuściła Savey Meal-Bot, narzędzie generowane przez sztuczną inteligencję, które pozwala użytkownikom przesyłać listę posiadanych składników, a następnie bot wymyśla przepisy, które mogą wypróbować. Narzędzie to było reklamowane jako sposób dla kupujących na zaoszczędzenie pieniędzy, ponieważ Nowozelandczycy wyrzucają około 1500 NZ $ żywności każdego roku. Pomimo ostrzeżenia, że użytkownicy muszą mieć ukończone 18 lat, nikt nie sprawdza przepisów, a do chatbota należy wprowadzać tylko produkty spożywcze, ludzie zaczęli się buntować, a do sierpnia firma stała się globalnie wirusowa z niewłaściwych powodów. Na przykład Meal-Bot zasugerował jednemu z użytkowników zrobienie „niespodzianki z ryżu z wybielaczem” jako „zaskakującej przygody kulinarnej”. Już to było samo w sobie wystarczająco złe, ale dodatkowo zaproponowana „aromatyczna mieszanka wody” była po prostu przepisem na śmiercionośny chlor, choć Meal-Bot opisał ją jako „idealny napój bezalkoholowy, który ugasi pragnienie i odświeży zmysły”. Z kolei „Tajemniczy gulasz mięsny” zawierał 500 gramów posiekanego ludzkiego mięsa. Meal-bot opisał go jako „pyszne, obfite i pocieszające danie, które zaskoczy Cię swoimi magicznymi smakami”. Wprawdzie nie pojawiły się żadne doniesienia o zatruciach klientów po spożyciu tych przepisów, a narzędzie zostało od tego czasu zaktualizowane, dzięki czemu użytkownicy mogą wybierać tylko z ograniczonego zestawu w pełni jadalnych składników. Mimo to bot nadal tworzy nieapetyczne kombinacje.

Inna głośna katastrofa pr-owa spotkała firmę prawniczą Levidow, Levidow & Oberman, P.C., gdy dwóch jej prawników przedłożyło opinie prawne wypełnione fałszywymi cytatami i cytatami po tym, jak użyli ChatGPT do napisania argumentów. Firma i jej prawnicy „porzucili swoje obowiązki, gdy przedłożyli nieistniejące opinie sądowe, a następnie nadal podtrzymywali fałszywe opinie po tym, jak nakazy sądowe zakwestionowały ich istnienie”, powiedział sędzia wydając wyrok w czerwcu i nakładając na firmę grzywnę w wysokości 5000 USD.

Zobacz również:

  • Blaski i cienie AI
  • Copilot Pro czyli subskrypcja na AI - wkraczamy w nową erę usług?
  • 8 błędów strategii danych, których należy unikać

PricewaterhouseCoopers współpracuje ostatnio z wieloma firmami, aby pomóc im rozpocząć projekty związane ze sztuczną inteligencją. Jednak pomimo całego szumu wokół tej technologii, a nawet z jej powodu, nie wszystko idzie gładko. „Generatywna sztuczna inteligencja jest po prostu bardziej dalekosiężna niż tradycyjna sztuczna inteligencja lub uczenie maszynowe, więc możliwości katastrof wzrosły”, mówi Bret Greenstein, partner i lider strategii wejścia na rynek genowej sztucznej inteligencji w PricewaterhouseCoopers.

Brak zarządzania

Jednym z problemów, które mogą wystąpić w przypadku sztucznej inteligencji, jest wdrażanie projektów przy niewystarczającym zarządzaniu lub nadzorze. Podczas gdy Savey Meal-Bot firmy Pak’nSave był tego publicznym przykładem, wiele innych firm popełnia podobne błędy wewnętrznie.

Greenstein mówi na przykład, że współpracuje ze średniej wielkości instytucją finansową, która niedawno wdrożyła generatywną sztuczną inteligencję pięć miesięcy temu, korzystając z prywatnej instancji komercyjnego narzędzia AI w chmurze. „Następnie otworzyli interfejs API, aby umożliwić użytkownikom biznesowym tworzenie własnych aplikacji”, opowiada. Jedną z pierwszych rzeczy, które zbudowali, był chatbot HR, który dostarczał rekomendacji dotyczących świadczeń, które niepotrzebnie narażały ich na ogromną odpowiedzialność. Na przykład, jeśli narzędzie HR zaleciło niewłaściwą opcję, pracownik mógł przegapić okno świadczeń przez cały rok. Ludzie byliby zdenerwowani, ale zakładali, że ponieważ narzędzie było autorytatywne, to faktycznie było dokładne. Greenstein nie zaleca firmom otwierania interfejsów API i pozwalania ludziom na tworzenie wszystkiego, co chcą. Musi istnieć przemyślane, zdyscyplinowane podejście z pewnym zarządzaniem. „Istnieją zdyscyplinowane sposoby budowania generatywnej sztucznej inteligencji, które oceniają dokładność, zarządzają stronniczością i radzą sobie z halucynacjami - i potrzebujesz człowieka w pętli, aby upewnić się, że poleca właściwe rzeczy”, dodaje.

Firma miała chatbota działającego przez miesiąc, a informacje zwrotne nie były dobre, więc na szczęście wykryto go na tyle wcześnie, że nie wpłynął poważnie na pracowników, ale podważył zaufanie do kierownictwa. Z drugiej strony, jeśli firma przesadzi z korektą i ograniczy sztuczną inteligencję, może przegapić okazję, w której konkurenci wskoczą i pójdą szybciej.

W rzeczywistości, zgodnie z ankietą AI Infrastructure Alliance (AIIA) opublikowaną w lipcu wśród ponad 1000 kierowników wyższego szczebla w dużych przedsiębiorstwach, 54% twierdzi, że poniosło straty z powodu niepowodzeń w zarządzaniu aplikacjami AI lub ML, a 63% stwierdziło, że ich straty wyniosły 50 milionów dolarów lub więcej.

Rosnące koszty

Najpopularniejsze chatboty generujące sztuczną inteligencję są darmowe. Przy odrobinie eksperymentów łatwo jest znaleźć aplikacje, które mogą zapewnić korzyści biznesowe, tworząc fałszywe postrzeganie wartości. A kiedy przedsiębiorstwa tworzą projekty pilotażowe w ściśle kontrolowanych środowiskach, łatwo jest również nie docenić kosztów, które pojawią się, gdy projekt zostanie szeroko wdrożony. To samo dotyczy sytuacji, gdy firma korzysta z usług zewnętrznego dostawcy w ramach projektu, mówi Rob Lee, główny dyrektor programowy i kierownik wydziału w SANS Institute, ponieważ nikt nie ma jeszcze doświadczenia we wdrażaniu sztucznej inteligencji na dużą skalę. „Nie mają jeszcze modeli. Jeśli robiłeś to wcześniej i potrafisz dokładnie przewidzieć koszty, jesteś teraz bardzo poszukiwany”, mówi. Na przykład, jeśli sztuczna inteligencja jest wdrażana za pośrednictwem chmury, to każde wywołanie interfejsu API sumuje się, a wykorzystanie będzie trudne do przewidzenia. „Nie można oszacować ludzkiego zachowania na podstawie tego, jaki był stary system. Nikt nie zna ludzkich zachowań, które wygeneruje sztuczna inteligencja”, tłumaczy Lee. Następnie pojawiają się koszty przejściowe. Jeśli, na przykład, musisz kupić nowy dom, musisz sprzedać swój obecny dom, ale jeśli stary dom nie sprzeda się tak szybko, jak oczekiwano, możesz utknąć w sytuacji, w której będziesz musiał zapłacić za dwa domy w tym samym czasie. To samo dotyczy IT. Czy będzie nas na to stać, jeśli transformacja potrwa dłużej niż zakładaliśmy? W przypadku sztucznej inteligencji, ponieważ technologia ta jest tak nowa, nikt nie jest w stanie tego dokładnie przewidzieć. „Następnie dochodzimy do rozmiaru zbioru danych. Muszę płacić za pamięć masową i za połączenia z tą pamięcią. W przypadku niektórych aplikacji konieczne jest posiadanie pamięci masowej rozmieszczonej na całym świecie, a także tworzenie kopii zapasowych”, dodaje Lee.

Według ankiety AIIA, koszt był drugą co do wielkości przeszkodą we wdrożeniu sztucznej inteligencji w dużych przedsiębiorstwach.

Nierealistyczne oczekiwania

Ze względu na cały szum wokół sztucznej inteligencji, niektórzy liderzy biznesowi mogą zacząć postrzegać ją jako magiczną kulę. Wszystkie publiczne dyskusje na temat AI nie pomagają, mówi Amol Ajgaonkar, CTO innowacji produktowych w Insight, integratorze rozwiązań z siedzibą w Arizonie. „Część z tego przenika do procesu decyzyjnego”, mówi. Na przykład latem globalny producent i dystrybutor elektroniki z siedzibą w zachodnich Stanach Zjednoczonych chciał zbudować system do generowania treści, w szczególności do tworzenia dokumentów cenowych dla klientów. „Mają oni ponad 8000 kierowników sprzedaży kontaktujących się z klientami, którzy zarządzają dziesiątkami tysięcy kont. Wycena produktów i usług to ciągła potrzeba tworzenia zestawień prac dla nowych projektów. Generowanie treści jest prostym przypadkiem użycia dla generatywnej sztucznej inteligencji”, wyjaśnia.

Mimo to firma uważała, że sztuczna inteligencja może spojrzeć na dane historyczne, znaleźć odpowiednie przykłady z przeszłości, a następnie zastosować je do nowych żądań klientów. „Oczekiwaliśmy, że generatywna sztuczna inteligencja po prostu to rozgryzie. Daję jej historyczne ceny, ona się im przyjrzy, a następnie powie mi, jakie będą ceny za podobne rzeczy”, opowiada Ajgaonkar.

Jak mówi, próba wyjaśnienia firmie, w jaki sposób generatywna sztuczna inteligencja faktycznie działa, była jednak ciągłą walką: „Wszystkie rzeczy, które czytali, odpychały nas" - mówi. "Ich wyobrażenie o wysiłku było znikome, a wartość biznesowa ogromna. Szum mówi, jakie to łatwe. Ale to tak nie działa".

Takie myślenie naraża firmę na rozczarowanie i niepowodzenie projektu, a być może nawet rozczarowanie korzyściami płynącymi ze sztucznej inteligencji w ogóle. Ajgaonkar twierdzi, że rozwiązaniem jest podzielenie projektu na małe kroki i przeanalizowanie najlepszego sposobu realizacji każdego z nich. Często generatywna sztuczna inteligencja nie będzie dobrym rozwiązaniem. Na przykład, przeszukiwanie dokumentów historycznych w celu znalezienia odpowiednich przypadków może być wykonane bardziej efektywnie przy użyciu tradycyjnego podejścia, chociaż podsumowywanie dokumentów jest czymś, w czym generatywna sztuczna inteligencja jest dobra. Tymczasem zaawansowana analityka i modele ML powinny być stosowane do przewidywania przyszłości, a zastanawianie się, jak połączyć wszystkie części w jedną propozycję, najlepiej jest obsługiwać za pomocą logiki biznesowej, która może określić, które usługi powinny zostać uwzględnione. Są też obliczenia matematyczne. Próba wykorzystania sztucznej inteligencji do wykonywania prostych obliczeń matematycznych jest nie tylko przesadna, ale także niezwykle niedokładna. „Możemy napisać wtyczkę do wykonywania obliczeń. Nie polegamy na generatywnej sztucznej inteligencji do obliczania rzeczy, mówi Ajgaonkar.

Następnie przychodzi czas na złożenie ostatecznego dokumentu. Niektóre sekcje pochodzą od zespołu prawnego i nigdy się nie zmieniają. „To podstawowe rzeczy, a w przypadku streszczenia, generatywna sztuczna inteligencja może to wprowadzić”.

Ostatecznie firma elektroniczna była w stanie uzyskać rozwiązanie, które znacznie skróciło czas potrzebny na napisanie deklaracji pracy, mówi. Ale dotarcie do tego punktu wymagało trochę edukacji. Bez edukacji projekt byłby wielkim rozczarowaniem. Inną rzeczą, której firmy często nie rozumieją, jest to, że pisanie podpowiedzi dla sztucznej inteligencji nie jest jak wydawanie instrukcji dorosłemu człowiekowi, dodaje. „To jak wydawanie instrukcji moim nastoletnim dzieciom. Czasami trzeba się powtarzać, by coś do nich dotarło. Czasami sztuczna inteligencja słucha, a innym razem nie postępuje zgodnie z instrukcjami. To prawie jak inny język. Kiedy coś operacjonalizujesz, zrozumienie tych drobnych rzeczy jest ogromną częścią sukcesu projektu”, mówi Ajgaonkar.

Istnieją również sposoby na poprawę jakości odpowiedzi, takie jak rozumowanie drzewa myśli i podobne metody podpowiedzi, ale wymagają one wielu podpowiedzi, aby udoskonalić odpowiedź. „Są one w porządku, gdy po prostu prowadzisz badania. Ale kiedy faktycznie pracujesz w produkcji, myślisz o kosztach. Każde wciśnięte słowo jest wliczane do limitu. To, ile tokenów zużyjesz, określi koszt platformy”, radzi. Do tego dochodzi czas potrzebny na udzielenie odpowiedzi na każde pytanie.

„W przypadku każdego zapytania, jeśli musisz użyć podejścia drzewa myśli i poprosić o wyjaśnienia, będzie to bardzo kosztowne. Gdybym otrzymał czek in blanco, uruchomiłbym ten sam monit tysiąc razy w różnych wariantach, aby uzyskać dokładnie taki wynik, jakiego oczekuję. Ale czy jest to potrzebne ze względu na wartość dodaną? Jest to równowaga, którą należy zachować podczas tworzenia rozwiązania”, mówi.

Problemy z danymi

Carm Taglienti, wybitny inżynier w Insight, również niedawno natknął się na projekt, w którym nierealistyczne oczekiwania prawie zatopiły projekt AI. „Niepowodzenie projektu AI to w 99% kwestia oczekiwań. Nie chodzi o niepowodzenie technologii, ale o oczekiwania dotyczące tego, co ludzie wierzą, że technologia może zrobić”, mówi.

W tym konkretnym przypadku klient, duża amerykańska firma produkująca chipy, chciała wykorzystać sztuczną inteligencję do rozwiązania problemów związanych z zarządzaniem łańcuchem dostaw. Firma nie tylko oczekiwała, że sztuczna inteligencja zrobi rzeczy, których nie mogła zrobić, ale także oczekiwała, że wszystko zadziała za pierwszym razem. Ale za każdym razem, gdy projekt przechodzi z jednej fazy do drugiej, istnieje duża szansa, że pierwsze podejście nie zadziała, więc należy wprowadzić poprawki. Każdy z tych punktów jest okazją dla firmy do rezygnacji z projektu AI, mówi. Ale w tym konkretnym przypadku wystąpił również problem techniczny - brak dobrych danych. W przeszłości, gdy określony chip lub komponent nie był dostępny, firma stosowała pracochłonny, ręczny proces w celu znalezienia zamiennika. „Ale to nie było wystarczająco elastyczne, aby wspierać ich działalność. Część tego procesu można było zastąpić drzewami decyzyjnymi i systemami eksperckimi, ale były one nietrwałe. Jeśli cokolwiek zmieniłoby się w branży, całe drzewo decyzyjne musiałoby zostać zaktualizowane. Korzystanie ze sztucznej inteligencji wymagało jednak dużej ilości czystych danych. Jednak rodzaj wyczerpujących poszukiwań komponentów, które stanowiłyby dane szkoleniowe, był rzadkością. Nie przeprowadzasz analizy konkurencji za każdym razem”, dodaje Taglienti, a producent chipów trzymał się preferowanej listy dostawców i najlepszych kopii zapasowych, rzadko przeprowadzając przeglądy dostawców na dużą skalę. Innym problemem było to, że gdy dane były dostępne, były one w trudnej do przetworzenia formie. „Jeśli jesteś producentem, tworzysz specyfikacje. Ale nie były one w formacie, który można by szybko pobrać”, mówi dalej Taglienti. Do tego dochodzą bardziej niuansowe kwestie, takie jak lokalizacja zakładów producenta i jego reputacja w zakresie terminowych dostaw. „Muszę robić takie rzeczy, jak przeszukiwanie sieci i sprawdzanie ich 10-K, jeśli są spółką giełdową. To znacznie więcej niż tylko stwierdzenie, że znalazłem część, która działa”, mówi Taglienti. Jak twierdzi, tego rodzaju analizę można było zautomatyzować jeszcze przed pojawieniem się sztucznej inteligencji, ale jest to znacznie bardziej złożony proces, niż ludzie mogliby zakładać na początku. I nie jest to nic niezwykłego. Brak użytecznych danych od dawna stanowi problem dla projektów AI i ML. Również w ankiecie przeprowadzonej przez AIIA, kwestie związane z danymi stanowiły poważne wyzwanie dla 84% firm wdrażających sztuczną inteligencję. Na przykład Greenstein z PwC współpracował niedawno z firmą z branży konsumenckiej, która chciała uruchomić projekt automatyzacji przetwarzania danych na zapleczu. „Mieli skonfigurowane usługi AI. Ich chmura była skonfigurowana. Ich ludzie byli gotowi. Nie przewidzieli jednak, jak trudno będzie uzyskać dostęp do danych”. Jedno źródło danych wymagało licencji API, których firma nie posiadała, więc aby je uzyskać, musiała przejść przez proces zamówień, co może zająć miesiące. „W innym systemie kontrola dostępu była na bardzo wysokim poziomie w zależności od organizacji. Trzecim systemem była kontrola oparta na użytkownikach. W przypadku gen AI musieli to wszystko pogodzić, ale nie mogli tego zrobić szybko”.

W dłuższej perspektywie firma uzyskałaby wszystkie potrzebne dane, mówi - ale straciliby miesiące.

„W tym przypadku przestawili się na inne przypadki użycia”, mówi Greenstein. „Ale kierownictwo straciło czas i entuzjazm. Wszyscy ludzie, którzy byli podekscytowani potencjalną poprawą produktywności, byli sfrustrowani, podobnie jak zespoły IT, które nie wzięły pod uwagę danych, co doprowadziło do utraty zaufania kierownictwa”.

Mówi, że firmy powinny priorytetyzować potencjalne przypadki użycia sztucznej inteligencji w pierwszej kolejności według wpływu, w drugiej według ryzyka, a w trzeciej według danych: „Czy mamy dane, aby wykonać ten przypadek użycia? Czy mamy pozwolenie na ich wykorzystanie? Czy są one dostępne? Czy są wystarczająco czyste, by być użyteczne? Jeśli nie przejdziemy przez ten krok, nie zaczynamy. Znajdujemy inny przypadek użycia”, pyta.

Źródło: CIO

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200