Największe problemy sztucznej inteligencji od OpenAI

ChatGPT to świetne narzędzie, ale niestety nadal boryka się z wieloma problemami, które mogą wprowadzać w błąd użytkowników. Na co należy zwrócić uwagę?

Nowy model sztucznej inteligencji rozwijany przez OpenAI - ChatGPT z miejsca zyskał niesamowitą popularność. W rok po premierze wersji dostępnej dla publiczności jest to najczęściej wykorzystywane narzędzie sztucznej inteligencji, które ułatwia pracę miliona użytkowników dziennie.

Największe problemy z ChatemGPT
Źródło: Growtika / Unsplash

Największe problemy z ChatemGPT

Źródło: Growtika / Unsplash

Chatbot od OpenAI osiągnął niewyobrażalną popularność w niesamowicie krótkim czasie, ale boryka się z kilkoma poważnymi problemami, z których nie zawsze zdają sobie sprawę jego użytkownicy.

Zobacz również:

  • Nowe narzędzie Nvidia do testowania modeli GenAI
  • Blaski i cienie AI
  • Ten incydent z „katolickim księdzem” pokazuje, jak niebezpieczna może być sztuczna inteligencja

Do problemów związanych z użytkowaniem ChatuGPT można zaliczyć naruszenia bezpieczeństwa, notoryczne udzielanie nieprawidłowych odpowiedzi, wmawianie użytkownikom nieprawdy oraz wiele innych sytuacji, które znacząco zmniejszają wiarygodność oraz użyteczność ChatuGPT.

Narzędzie typu chatbot od OpenAI to świetne rozwiązanie, które może pomóc w codziennej pracy, ale musimy być świadomi jest ograniczeń.

Zagrożenia związane z bezpieczeństwem danych i ochroną prywatności

Użytkownicy bardzo często przekazują sztucznej inteligencji poufne informacje. Istnieje wiele danych, których nie wolno udostępniać chatbotom AI. Pisanie o swoich danych finansowych lub poufnych informacjach o miejscu pracy wiąże się z ryzykiem wycieku tych danych w przyszłości. OpenAI przechowuje historię czatów na swoich serwerach i może udostępniać te dane wybranym grupom osób trzecich.

Warto przypomnieć, że w marcu 2023 roku miało miejsce naruszenie bezpieczeństwa w ChacieGPT. Wybrani użytkownicy na swoich kontach uzyskali dostęp do historii rozmów innych użytkowników. W przypadku narzędzia, z którego już w styczniu 2023 roku korzystało 100 milionów aktywnych użytkowników miesięcznie nawet niewielkie naruszenie zasad bezpieczeństwa może mieć tragiczne w skutkach konsekwencje.

W związku z naruszeniem bezpieczeństwa z marca 2023 roku rząd Włoch zakazał OpenAI przetwarzania danych włoskich użytkowników w narzędziu ChatGPT.

OpenAI ostatecznie rozwiązało kwestię z organami regulacyjnymi, wprowadzając kilka istotnych zmian. Na początek dodano ograniczenie wiekowe, ograniczające korzystanie z aplikacji do osób w wieku 18+ lub 13+ za zgodą opiekuna. Firma sprawiła również, że jej polityka prywatności stała się bardziej widoczna i udostępniła formularz rezygnacji dla użytkowników, aby wykluczyć ich dane ze szkoleń lub całkowicie usunąć historię ChatGPT.

Szkolenie algorytmów sprzeczne z prywatnością użytkowników

ChatGPT był również wielokrotnie krytykowany za sposób w jaki OpenAI przeprowadza szkolenie swojego modelu sztucznej inteligencji.

ChatGPT to niezwykle potężne narzędzie
Źródło: Emiliano Vittoriosi on Unsplash

ChatGPT to niezwykle potężne narzędzie

Źródło: Emiliano Vittoriosi on Unsplash

Nawet przy ulepszonych zmianach w polityce prywatności OpenAI po naruszeniu danych z marca 2023 roku, rozwiązanie nie spełnia w 100% wszystkich przepisów prawnych wchodzących w skład rozporządzenia RODO.

Podczas pierwszego szkolenia OpenAI wykorzystało dane osobowe użytkowników sieci oraz m. in. artystów, którzy nigdy nie wyrazili zgody na wykorzystanie ich wizerunku i pracy do szkolenia modelu sztucznej inteligencji.

Getty Images - jeden z największych zbiorów fotografii z prawami autorskimi w sieci - pozwał Stability.AI za wykorzystywanie obrazów chronionych prawem autorskim do trenowania modeli sztucznej inteligencji.

Atmosferę podkręca fakt, że OpenAI nie udostępnia publicznie informacji o danych szkoleniowych, które wykorzystywane są do nauki systemu sztucznej inteligencji obsługującego ChatGPT.

ChatGPT generuje nieprawidłowe odpowiedzi

Jednym z większych zagrożeń dla użytkowników ChatuGPT jest fakt, że oprogramowanie przekazuje nieprawidłowe informacje zarzekając się jednocześnie, że są one poprawne. Jako model językowy ChatGPT nie radzi sobie z podstawowymi zadaniami matematycznymi.

OpenAI jest oskarżane o nietyczne działania
Źródło: Andrew Neel / Unsplash

OpenAI jest oskarżane o nietyczne działania

Źródło: Andrew Neel / Unsplash

OpenAI informuje użytkowników o możliwości popełniania błędów przez ChatGPT. Tego typu pomyłki są szczególnie niebezpieczne w przypadku np. porad medycznych czy prawnych.

Istotny jest również fakt, że ChatGPT nie jest na stałe podłączony do sieci, a jego baza danych jest regularnie aktualizowana. Oznacza to, że nie posiada on wiadomości na temat bieżących wydarzeń, co dodatkowo sprzyja generowaniu nieprawidłowych informacji.

ChatGPT jest uprzedzony do niektórych tematów

ChatGPT został przeszkolony w zakresie zbiorowego pisania przez ludzi na całym świecie, którzy mają swoje przekonania oraz upodobania. Niestety oznacza to, że te same uprzedzenia w świecie rzeczywistym mogą również pojawić się w modelu.

Wielokrotnie w sieci wskazywano informacje generowane przez ChatGPT, w których dochodzi do dyskryminacji płci, rasy czy grup mniejszościowych.

OpenAI zdaje sobie sprawę z występowania problemu i zajmuje się "stronniczym zachowaniem" poprzez zbieranie opinii od użytkowników i zachęcanie ich do oznaczania wyników ChatGPT, które są złe, obraźliwe lub po prostu niepoprawne.

Społeczność akademicka ma za złe firmie OpenAI udostępnienie ChatuGPT dla szerokiej publiczności przed całkowitym rozwiązaniem powyższego problemu.

ChatGPT może być dla nas konkurencją na rynku pracy

Coraz częściej mówi się o możliwym negatywym wpływie ChatuGPT na rynek pracy poprzez eliminację wybranych stanowisk. ChatGPT został już zintegrowany z wieloma popularnymi narzędziami takimi jak Duolingo do nauki języków czy Khan Academy. W przyszłości wraz z popularyzacją sztucznej inteligencji może ona zabrać ludziom prace na wielu stanowiskach związanych z obsługą klienta na podstawowym poziomie lub podczas wykonywania prostych, powtarzalnych czynności. A wraz z rozwojem i wzrostem dojrzałości ChatGPT może przejąć funkcje wyżej postawionych pracowników w dużych korporacjach.

ChatGPT ogromnym wyzwaniem dla sektora edukacji

Z jednej strony ChatGPT znacząco ułatwia pozyskiwanie i dostęp do wiedzy, ale z drugiej strony bardzo często przekazuje niepoprawne, niepełne lub błędne informacje. Szybkość i wygoda w użyciu powoduje wzrost popularności tego narzędzia wśród uczniów na całym świecie.

ChatGPT jest dużym problemem w sektorze edukacyjnym
Źródło:  Choong Deng Xiang / Unsplash

ChatGPT jest dużym problemem w sektorze edukacyjnym

Źródło: Choong Deng Xiang / Unsplash

Niestety ChatGPT w edukacji ma wpływ na wiele negatywnych zjawisk. Narzędzie to zmniejsza kreatywność i oducza wykonywania podstawowych czynności takich jak pisanie, wyszukiwanie informacji czy weryfikacja źródeł.

Przed sektorem edukacji stoi duże wyzwanie, którego skutkiem musi być wdrożenie ChatuGPT do świata nauki, ale na odpowiednich zasadach, które przyniosą więcej pożytku, niż szkody.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200