Jaki jest jedyny prawdziwy problem z mediami syntetycznymi?

Firmy publikują treści stworzone przez DALL-E 2 i ChatGPT, działając w pustce prawnej.

Gerd Altmann/ Pixabay

Określenie „media syntetyczne” (znane również jako media generowane przez AI, media generatywne i media spersonalizowane) odnosi się do wszelkich utworów medialnych tworzonych lub modyfikowanych za pomocą algorytmów, zwłaszcza poprzez wykorzystanie algorytmów sztucznej inteligencji, np. muzyka pisaną przez algorytmy, generowanie tekstu, obrazowanie i wideo, synteza głosu etc.

Dostawcy i twórcy treści, marketerzy, blogerzy firmowi i inni spieszą się, by maksymalnie wykorzystać ten nowy trend mediów syntetycznych. Dlaczego? Otóż np. sztuka tworzona za pomocą sztucznej inteligencji (AI) umożliwia bardziej elastyczną i oryginalną alternatywę dla nieświeżej, starej fotografii stockowej. A generatory treści AI, a najbardziej ChatGPT, mogą dosłownie w kilka sekund napisać przyzwoitej jakości posty na blogu, reklamy i treści marketingowe.

Zobacz również:

  • Indie będą światowym centrum sztucznej inteligencji
  • Chińskie Baidu uruchomi w marcu bota w stylu ChatGPT
  • Microsoft wkrótce doda ChatGPT do usługi Azure OpenAI

Okazuje się, że rok 2022 był rokiem, w którym syntetyczne narzędzia medialne weszły do głównego nurtu.

Większość zasług za ten nagły zwrot w stronę mediów syntetycznych przez miliony ludzi norganizacja non-profit - obie o nazwie OpenAI - została założona przez Sama Altmana, Elona Muska, Grega Brockmana, Reida Hoffmana, Jessicę Livingston, Petera Thiela, Amazon Web Services, Infosys i YC Research, a wsparta kwotą 1 miliarda dolarów przez Microsoft. OpenAI zyskuje uznanie, ponieważ jest odpowiedzialne zarówno za DALL-E 2, jak i ChatGPT, usługi, które wprowadziły na mapę zarówno sztukę AI, jak i niesamowity czat AI.

W ostatnich tygodniach pojawiły się setki nowych produktów i usług online umożliwiających łatwe korzystanie z tych podstawowych narzędzi. AOpenAI jest w centrum tego wszystkiego.

Prawdziwy problem z syntetycznymi mediami

Profesor filozofii z Furman University Darren Hick ostrzegł niedawno na Facebooku, że nauczyciele i profesorowie mogą spodziewać się zalewu esejów z prac domowych pisanych przez ChatGPT. Możemy się też spodziewać nadużyć ze strony firmowych twórców treści.

Publiczne syntetyczne narzędzia medialne oparte na DALL-E 2 i ChatGPT pozwalają zaoszczędzić czas i pieniądze oraz poprzez szybkie generowanie wysokiej jakości treści. Firmy już wykorzystują je do tworzenia postów w mediach społecznościowych, wpisów na blogach, autoodpowiedzi i ilustracji.

Syntetyczne media obiecują bardzo bliską przyszłość, w której reklamy są generowane na zamówienie dla każdego klienta, super realistyczni agenci obsługi klienta AI odbierają telefony nawet w małych i średnich firmach, a wszystkie obrazy marketingowe, reklamowe i biznesowe są generowane przez AI, a nie ludzkich fotografów i grafików. Technologia obiecuje AI, która pisze oprogramowanie, obsługuje SEO i zamieszcza posty na mediach społecznościowych bez udziału człowieka.

Świetnie, prawda? Problem w tym, że jak dotąd niewielu ludzi myśli o konsekwencjach prawnych.

Powiedzmy, że chcesz, aby przywództwo firmy było przedstawione na stronie „O nas” na swojej stronie internetowej. Firmy obecnie pompują istniejące selfies do narzędzia AI, wybierając styl, a następnie generując fałszywe zdjęcia, które wszystkie wyglądają jak zdjęcia zrobione w tym samym studio z tym samym oświetleniem, lub namalowane przez tego samego artystę z tym samym stylem i paletą kolorów. Same zaś style malarskie są często wyuczone przez sztuczną inteligencję poprzez przetwarzanie (w sensie prawnym) własności intelektualnej konkretnych fotografów lub artystów.

Czy to jest już kradzież własności intelektualnej?

Istnieje również ryzyko, że opublikujesz treści, które są podobne lub identyczne z treściami ChatGPT opublikowanymi w innym miejscu - co najmniej zostaniesz zdegradowany w wyszukiwarce Google za duplikowanie treści, a co najwyżej zostaniesz przejrzany (lub pozwany) za plagiat.

Na przykład, powiedzmy, że firma używa ChatGPT do wygenerowania wpisu na blogu, dokonując drobnych zmian. Prawa autorskie mogą lub nie mogą chronić tę treść, w tym bity wygenerowane przez AI. Potem jednak konkurencyjna firma zleca ChatGPT napisanie kolejnego wpisu na blogu, generując język, który jest identyczny w wyrażeniu do pierwszego. Po drobnych poprawkach, ta kopia trafia do Internetu.

W tym przypadku, kto kogo kopiuje? Kto posiada prawa do języków, które są identyczne w każdym przypadku? OpenAI? Pierwszy plakat? Oboje?

Może się okazać, że jeśli drugi użytkownik ChatGPT nigdy nie widział treści pierwszego użytkownika, to technicznie nie jest to plagiat. Jeśli tak jest, możemy mieć do czynienia z sytuacją, w której setki stron otrzymują identyczny język z ChatGPT, ale żadna osoba nie kopiuje technicznie żadnej innej osoby.

Adobe przyjmuje zgłoszenia sztuki generowanej przez sztuczną inteligencję, którą będą sprzedawać jako „fotografię stockową” - i w tym układzie roszczą sobie prawo do własności obrazów z zamiarem uniemożliwienia innym kopiowania i używania ich bez zapłaty. Czy mają lub powinni mieć prawo do „posiadania” tych obrazów - zwłaszcza jeśli ich styl jest oparty na opublikowanych pracach artysty lub fotografa?

Największym narażeniem prawnym może być ślepa publikacja jawnych błędów, do czego ChatGPT jest notorycznie zdolny. (Na marginesie: profesor Furman przyłapał jedną studentkę używającego Chat GPT, ponieważ jej esej był zarazem bezbłędnie napisany i całkowicie merytorycznie błędny).

Może również generować treści zniesławiające, obraźliwe lub oszczercze, albo treści naruszające czyjąś prywatność.

Kiedy słowa AI przekraczają granice praw czy obyczajów, czyje to jest przekroczenie?

ChatGPT udziela pozwolenia na wykorzystanie swoich wyników, ale wymaga ujawnienia, że jest to treść wygenerowana przez sztuczną inteligencję.

Prawo autorskie działa w obie strony. Większość ChatGPT jest ogólna i trywialna, gdy źródeł na ten temat jest wiele. Ale na tematy, gdzie źródła są nieliczne, ChatGPT sam może naruszać prawa autorskie. Poprosiłem ChatGPT o opowiedzenie mi o biznesie mojej żony, a sztuczna inteligencja opisała go idealnie - własnymi słowami mojej żony. Warunki ChatGPT pozwalają na wykorzystanie jego danych wyjściowych - w tym przypadku, twierdzą, że pozwalają na wykorzystanie wypowiedzi mojej żony chronionej prawem autorskim, na co nie wyraziła zgody ani OpenAI, ani jego użytkownikom.

ChatGPT jest przedstawiany światu jako eksperyment, a jego użytkownicy przyczyniają się do jego rozwoju poprzez swój wkład. Ale firmy wykorzystują już ten eksperymentalny dorobek w świecie rzeczywistym.

Problem polega na tym, że ważne prawa i precedensy prawne nie zostały jeszcze napisane; wprowadzenie syntetycznych mediów do świata oznacza, że przyszłe prawo będzie miało zastosowanie do obecnych treści. Wydawanie orzeczeń dopiero sięzaczyna. US Copyright Office orzekł niedawno, że komiks wykorzystujący sztukę AI nie kwalifikuje się do ochrony praw autorskich. To jeszcze nie jest prawo, ale jest to precedens, który może być brany pod uwagę w przyszłości.

OpenAI zezwala na wykorzystanie produkcji DALL-E i ChatGPT do celów komercyjnych. W ten sposób przenosi ciężar prawny na użytkowników, którzy mogą popaść w samozadowolenie co do stosowności wykorzystania.

Moja rada to: nie używaj syntetycznych mediów dla swojego biznesu w żaden sposób. Owszem, używaj ich do pozyskiwania pomysłów, do nauki, do eksploracji. Ale nie publikuj słów ani obrazów wygenerowanych przez AI - przynajmniej dopóki nie ma znanych ram prawnych, które by to umożliwiały.

Syntetyczne media generowane przez SI to prawdopodobnie najbardziej ekscytująca sfera technologii w tej chwili. Pewnego dnia zmienią one oblicze biznesu. Na razie jednak jest to prawna trzecia szyna, której należy unikać.

Źródło: Computerworld.com

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200