Premiera GPT-4

Firma OpenAI zaprezentowała w tym tygodniu nowy model sztucznej inteligencji zdolny przetwarzać zarówno tekst, jak i grafikę - GPT-4. W opinii analityków jest to swego rodzaju kamień milowy wyznaczający kierunek rozwoju technologii głębokiego uczenia.

GPT-4 to płatna usługa dostępna za pośrednictwem opracowanego przez OpenAI, bazującego na tokenach planu ChatGPT Plus. Tysiąc tokenów (dzięki którym GPT-4 może obsłużyć ok. 750 słów) kosztuje 0,03 USD. Microsoft potwierdził dzisiaj, że opracowana wspólnie z OpenAI technologia chatbota Bing Chat, działa już zgodnie z GPT-4. Wszystko wskazuje na to, że model GPT-4 będzie w najbliższych dniach i tygodniach obsługiwał kolejne aplikacje wykorzystujące boty AI.

GPT-4 różni się tym od poprzedniej wersji GPT-3.5, że może generować tekst również wtedy, gdy na wejściu pojawi się grafika (GPT-3.5 rozpoznaje wyłącznie pytania tekstowe). Pierwsze testy wykazały, że GPT-4 jest np. w stanie zadać egzamin z prawa uzyskując taki sam wynik, jaki uzyskuje 10 procent najlepszych zdających, podczas gdy GPT-3.5 jest w stanie zadać egzamin z prawa uzyskując taki sam wynik, jaki uzyskuje 10 procent, ale nie najlepszych, ale najgorzej zadających. Różnica jest zasadnicza.

Zobacz również:

  • Asystent AI Copilot wkroczył do platformy Azure SQL Database
  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Duże zmiany sprzętowe w iPhone dedykowane AI

Firma OpenAI informuje, że przed udostępnieniem użytkownikom modelu GPT-4, szkoliła go intensywnie przez okres blisko sześciu miesięcy. Podobnie jak w przypadku poprzednich modeli GPT, GPT-4 został przeszkolony przy użyciu publicznie dostępnych danych, w tym pozyskiwanych z publicznych stron internetowych. Jednak jednym z bardziej interesujących cech GPT-4, jest jego zdolność do rozumienia obrazów i tekstu.

Dlatego GPT-4 może opisywać — a nawet interpretować — stosunkowo złożone obrazy. Na przykład użytkownik może zrobić zdjęcie wnętrza swojej lodówki i pokazać je GPT-4. Model może rozpoznać nie tylko to, co się w niej znajduje, ale także podpowiedzieć, co można przygotować z tych składników i jak zrobić. Co ważne, OpenAI wprowadza do GPT-4 nowe API, które pozwalają programistom określać styl i zakres odpowiedzi.

Jednocześnie OpenAI zastrzega się, że modelowi GPT-4 daleko jest do doskonałości, co oznacza iż popełnia czasami wydawałoby się proste błędy. Wynika to z faktu, że wie tylko tyle, ile zdołał się nauczyć przez ostatnich kilka miesięcy. Dlatego czasami może popełniać proste błędy w rozumowaniu lub przypadku przedstawienia mu trudnego do rozwiązania problemy, po prostu pasować. Twórcy chwalą się jednak, że porównaniu z modelem GPT-3.5, model GPT-4 on ogólnie o 82% mniej skłonny do odpowiadania na prośby o udzielenie odpowiedzi na pytania poruszające wrażliwe czy wręcz niedozwolone w przestrzeni publicznej treści.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200