Eksperymentalny chatbot Google dostępny do testowania

Firma zdecydowała się w ostatnich dniach otworzyć swoją mobilną aplikację AI Test Kitchen, dając w ten sposób użytkownikom możliwość jej testowania i sprawdzenia jak działa opracowane przez nią oprogramowanie LaMDA wykorzystujące sztuczną inteligencję

Grafika: searchenginejournal

Google zaprezentował chatbot AI Test Kitchen trzy miesiące temu, a wraz z nim kolejną wersję oprogramowania konwersacyjnego LaMDA, które można nauczyć odczytywania nie tylko pojedynczych słów wypowiadanych przez człowieka, ale nawet całych zdań czy akapitów. Według Google to właśnie od jakości takich narzędzi jak LaMDA zależy to, jak w przyszłości będzie wyglądać interakcja człowiek-komputer.

AI Test Kitchen jest częścią szerszego planu Google, w ramach którego firma chce stworzyć interfejsy kolejnej generacji, dzięki którym człowiek będzie mógł komunikować się z komputerem używając naturalnego języka. Firma uruchomiła już stronę, na której osoby zainteresowane testowaniem aplikacji mogą deklarować chęć testowania aplikacji AI Test Kitchen. Obecnie możliwość taką mają wyłącznie deweloperzy amerykańscy, ale z czasem z możliwości takie będą mogli skorzystać również programiści zamieszkujący inne kraje na całym świeci. Mówimy tu o aplikacji dedykowanej dla urządzeń Android. Google deklaruje, że wersja iOS powinna pojawić się w nadchodzących tygodniach.

Zobacz również:

Podobnie jak w przypadku udostępnionego niedawno deweloperom inteligentnego chatbota noszącego nazwę BlenderBot 3, również tym razem Google ostrzega, że sztuczna inteligencja zawiadująca aplikacją LaMDA może sprawiać niespodzianki wynikające z tego, że daleko jest jej do doskonałości i może nieraz wydawać zaskakujące sądy. Google twierdzi, że wyposażył oprogramowanie LaMDA w jak to określił „kluczowe ulepszenia bezpieczeństwa”, tak aby uniknąć udzielania niedokładnych czy wręcz obraźliwych odpowiedzi.

Oprogramowanie LaMDA bazuje na modelu językowym symulujący dialog między komputerem i człowiekiem, który ma do dyspozycji ponad 175 miliardów parametrów. Pomimo tak dużej ilości parametrów, model może nieraz błędnie interpretować intencje kryjące się za wypowiedziami obu stron. W efekcie może również generować szkodliwe lub wręcz toksyczne odpowiedzi , które błędnie przedstawiają ludzi np. ze względu na ich płeć lub pochodzenie kulturowe. Dlatego te i inne obszary działania takich botów jak LaMDA są nadal przedmiotem aktywnych badań co daje nadzieję na to, że w przyszłości nie będzie dochodzić do takich sytuacji.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200