Kamery wykorzystujące AI Amazona analizowały emocje podróżujących pociągiem w Wielkiej Brytanii

Amazon prowadził obserwacje ludzi na głównych węzłach komunikacyjnych w całej Wielkiej Brytanii. Skanowanie twarzy trwało przez lata.

Amazon skanował twarze w Wielkiej Brytanii / Fot. Shutterstock

Amazon skanował twarze w Wielkiej Brytanii / Fot. Shutterstock

Nowo ujawnione dokumenty pokazują, że w ciągu ostatnich kilku lat sztuczna inteligencja giganta e-commerce skanowała twarze tysięcy pasażerów kolejowych w kraju, analizując ich wiek, płeć, emocje i inne cechy. Sprawa dotyczy Wielkiej Brytanii.

Testy nadzoru AI odbywały się na ośmiu stacjach kolejowych w Wielkiej Brytanii, w tym na ogromnych terminalach, takich jak londyńskie Euston i Waterloo oraz Manchester Piccadilly. Testy były nadzorowane przez Network Rail, które zarządza infrastrukturą kolejową w Wielkiej Brytanii, z celem zmniejszenia przestępczości poprzez szybkie informowanie personelu o incydentach związanych z bezpieczeństwem.

Zobacz również:

  • Facebook wkrótce będzie wykorzystywać nasze treści do trenowania swojej AI. Rezygnacja nie jest łatwa
  • AWS planuje dużą ekspansję w Europie. Zainwestuje 7,8 mld euro w data center

Systemy zostały wyszkolone do automatycznego wykrywania osób przekraczających tory, tłoku na peronach, potencjalnych przestępców, takich jak złodzieje rowerów, a nawet "zachowań antyspołecznych", które obejmowały bieganie, krzyczenie, jazdę na deskorolce czy palenie. Osobne testy sensorów sprawdzały śliskie podłogi, przepełnione kosze na śmieci i zatkane odpływy, które mogły powodować bałagan.

Aby to wszystko osiągnąć, Network Rail podłączyło mieszankę inteligentnych kamer, które potrafią wykrywać obiekty i ruchy w swoich strumieniach wideo, a także starszych kamer CCTV podłączonych do chmurowej wizji komputerowej Amazona — Rekognition.

Amazon skanował twarze

Rekognition to chmurowa platforma wizji komputerowej, która wykorzystuje głębokie uczenie do analizy obrazów i filmów z zaawansowanymi funkcjami, takimi jak rozpoznawanie obiektów, tekstu i twarzy.

Szczegóły pochodzą z dokumentów uzyskanych na mocy wniosku o dostęp do informacji publicznej przez grupę obrońców swobód obywatelskich Big Brother Watch. Dokumenty wskazują, że między 5 a 7 kamer AI lub sensorów zostało zainstalowanych na każdej stacji na potrzeby testów do kwietnia 2023 r.

Niestety, nadzór miał więcej celów niż tylko zapewnienie bezpieczeństwa.

Dokumenty ujawniają, że AI mogła wykorzystywać obrazy ludzi do generowania "analiz statystycznych dotyczących przedziału wiekowego i demografii mężczyzn/kobiet". Była również zdolna do analizy emocji, takich jak szczęście, smutek i gniew, poprzez skanowanie wyrazów twarzy. Jeden z arkuszy kalkulacyjnych zawierał nawet 50 potencjalnych zastosowań systemów monitorowania AI, choć nie wszystkie zostały koniecznie przetestowane.

Obrazy były rejestrowane, gdy ludzie przekraczali "wirtualną linię" przy barierkach biletowych, a następnie wysyłane do analizy do Rekognition Amazona. Jeden z pomysłów wymienionych w dokumentach polegał na wykorzystaniu tych danych do optymalizacji reklam i zwiększenia przychodów ze sprzedaży detalicznej na podstawie "pomiaru satysfakcji pasażerów".

Poważne wykroczenie

Rzecznik Network Rail powiedział Wired, że agencja bardzo poważnie podchodzi do bezpieczeństwa kolejowego i wykorzystuje zaawansowane technologie, w tym AI, "aby chronić pasażerów, naszych pracowników i infrastrukturę kolejową przed przestępczością i innymi zagrożeniami".

Jednak obrońcy prywatności twierdzą, że brakowało przejrzystości w stosowaniu systemów nadzoru AI w przestrzeniach publicznych, takich jak węzły komunikacyjne.

Potencjalne zagrożenie nadużyciem danych osobowych – takich jak profilowanie demograficzne i emocjonalne na potrzeby reklam – staje się szczególnie realne, gdy zaangażowane są duże korporacje.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200