Slack zbiera dane użytkowników do trenowania modeli AI bez pytania o zgodę

Inteligentniejsza współpraca, ale za jaką cenę? Dla organizacji korzystających ze Slacka perspektywa używania danych wewnętrznych do trenowania modeli AI budzi poważne obawy dotyczące bezpieczeństwa i zgodności z przepisami.

Slack nie gra fair? / Fot. Mat. prasowe

Slack nie gra fair? / Fot. Mat. prasowe

Slack zbiera wiadomości, pliki i dane, aby trenować swoje funkcje AI za kulisami. Co gorsza, użytkownicy aplikacji automatycznie zostali włączeni do tego układu bez ich wiedzy i zgody.

Pewien użytkownik zwrócił uwagę na X/Twitter, że Slack nie poinformował o tym, że trenduje AI na podstawie wiadomości i treści pojawiających się na jego platformie. Corey Quinn, dyrektor w Duckbill Group, wywołał zamieszanie z postem pytającym: "Przepraszam Slack, co wy do cholery robicie z prywatnymi wiadomościami, plikami itp. użytkowników?"

Zobacz również:

  • AI coraz popularniejsza w pracy biurowej
  • Polacy bezrefleksyjnie ufają technologii?
  • Takim aplikacjom dodawanym do Google Play będzie towarzyszyć dodatkowe oznaczenie

Quinn odnosił się do fragmentu zasad prywatności Slacka, który brzmi: "Aby rozwijać modele AI/ML, nasze systemy analizują Dane Klienta (np. wiadomości, treści i pliki) przesyłane do Slacka oraz Inne Informacje (w tym informacje o użyciu), zgodnie z naszą Polityką Prywatności i umową z klientem".

Slack szybko odpowiedział na ten sam post, potwierdzając, że rzeczywiście używa treści klientów do trenowania niektórych narzędzi AI w aplikacji. Jednak wyznaczył granicę — te dane nie są wykorzystywane do oferty premium, którą firma reklamuje jako całkowicie "odizolowaną od informacji użytkowników".

Użytkownicy są zaskoczeni

Większość osób była zaskoczona, że główne funkcje AI Slacka opierają się na otwartym dostępie do prywatnych rozmów i plików wszystkich użytkowników.

Kilku użytkowników argumentowało, że powinno być wyraźne powiadomienie, umożliwiające rezygnację przed rozpoczęciem zbierania danych.

Proces rezygnacji również jest problematyczny. Okazuje się, że użytkownicy indywidualni nie mogą zrezygnować samodzielnie — potrzebują administratora całej organizacji, aby ten złożył prośbę, wysyłając e-maila z bardzo konkretnym tematem, który można znaleźć w poście na X.

Niektórzy znani komentatorzy dołączyli do krytyki. Meredith Whittaker, prezes prywatnej aplikacji do wiadomości Signal, rzuciła cień na sprawę, mówiąc: "Nie zbieramy twoich danych w pierwszej kolejności, więc nie mamy nic do "wydobywania" dla AI". To jasna sugestia, żeby użytkownicy przeszli do Signala.

Reakcja podkreśla rosnące napięcia wokół AI i prywatności, ponieważ firmy ścigają się, aby stworzyć inteligentniejsze oprogramowanie.

Niespójności w politykach Slacka również nie pomagają. Jedna sekcja mówi, że firma nie ma dostępu do podstawowych treści podczas opracowywania modeli AI. Inna strona promująca premium generatywne narzędzia AI Slacka mówi: "Pracuj bez obaw. Twoje dane są twoimi danymi. Nie używamy ich do trenowania Slack AI. Wszystko działa na bezpiecznej infrastrukturze Slacka, spełniając te same standardy zgodności, co sam Slack".

Jednak przyznanie się do zbierania danych użytkowników w ramach "zasad prywatności" wydaje się sprzeczne z tymi oświadczeniami.

Na Threads, inżynier Slacka próbował wyjaśnić sytuację, mówiąc, że zasady prywatności były "pierwotnie napisane w kontekście pracy nad wyszukiwaniem/rekomendacjami, którą prowadzimy od lat przed AI Slacka", przyznając, że potrzebują one aktualizacji.

Niemniej jednak większym problemem jest oczywiście podejście "automatycznej zgody". Choć powszechne w technologii, jest sprzeczne z zasadami prywatności danych, które wymagają od użytkowników wyraźnej zgody na wykorzystanie ich informacji.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200