Technologie samopokazu

Czyli rzecz o tym, jak cyfryzacja wydziera tajemnice ludziom i światu.

Pozyskiwanie wiarygodnych danych jest kluczem do optymalnych decyzji i skutecznego zarządzania. Nie ma bowiem dobrych decyzji w próżni informacyjnej czy niedostatku danych. Wedle obiegowych opinii, otacza nas morze danych, które poddane przetworzeniu zgodnie z prawidłami statystyki obliczeniowej pozwalają na prognozowanie, dzięki czemu można rozwiązać stany problemowe, uciec przed stanem krytycznym, a w najgorszym razie złagodzić skutki sytuacji katastrofalnej. Odgadnięcie trendu - uchwycenie tipping point - pozwala z kolei "wsiąść" na atraktor, wykorzystać nadzwyczajną szansę i zyskać przewagę nad konkurencją.

Istnieje przekonanie, że bogactwo danych w sieciach oznacza kres ograniczeń w ich pozyskiwaniu klasycznymi metodami badań społecznych i marketingowych w realu. Istotnie, masa danych w Internecie - o ludziach, procesach, zmianach - lawinowo rośnie zgodnie z prawem Metcalfa (potęgowy rozkład relacji, interakcji, transakcji itp.) wraz z każdym nowym przyłączeniem do sieci. Mimo to, zdobywanie danych w sieciach napotyka problemy. Po pierwsze, dlatego że nie da się stworzyć w Internecie próby reprezentatywnej dla całego społeczeństwa, np. w skali danego kraju. Oczywiście, łatwiej taką próbę budować tam, gdzie wskaźniki obecności w Internecie zbliżają się do 80-90%, ale i to nie rozwiązuje problemu. Nigdy bowiem nie ma pewności, że podawane dane są autentyczne, czyli - mówiąc inaczej - nigdy nie wiemy na pewno, czy badane osoby nie nakładają masek. Jeśli nakładają, to próba do badania staje się bezwartościowa.

Nie zawsze oczywiście potrzebna jest próba reprezentatywna dla całej populacji. Można pozyskać wartościowe dane, jeśli chce się zbadać jakiś segment społeczeństwa, grupę celową, co jest najczęstsze w badaniach marketingowych. Tu sprawdzają się zwłaszcza metody jakościowe: pozyskiwanie głębszej wiedzy o respondencie. Można też uniknąć efektu ankietera, czyli niepożądanego wpływu jego obecności na odpowiedzi. Badany czuje się bardziej suwerenny w swych odpowiedziach w warunkach oddalenia. To daje przewagę tego typu badaniom - pod warunkiem jednak, że respondent jest szczery, nie symuluje.

Firmy specjalizujące się w badaniach społecznych czy marketingowych w Internecie zwracają uwagę na niechęć internautów do poddawania się badaniom. Koszty psychologiczne odmowy są żadne w porównaniu do sytuacji face to face z ankieterem: wystarczy kliknięcie w "zamknij" na pop-upie, który zachęca do udziału w badaniu i podania danych o sobie. Potencjalny badany ma dyskomfort - obawę, że się go zidentyfikuje, chociażby przez numer IP. Nawet jeśli jest przekonany o swojej anonimowości, to już niekoniecznie o nieidentyfikowalności. W tej sytuacji kluczem jest przekonanie respondenta o doniosłości badania dla niego samego. To wymaga nie lada umiejętności wywierania wpływu. Ale trud się opłaci.

Obietnice analityki cyfrowej

Z powodu tych ograniczeń niektóre ośrodki badawcze przesuwają punkt ciężkości w pozyskiwaniu danych z konwencjonalnych badań socjologicznych na badanie cyfrowych śladów zachowań werbalnych i niewerbalnych. Walory takich danych zachwala Lev Manovitch, guru software studies i analityki cyfrowej. Jego zdaniem, dysponujemy wielką ilością płytkich danych, pochodzących ze spisów powszechnych, które szybko się dezaktualizują. Mają walor statystyczny, ale informują tylko o powierzchni zjawisk społecznych, a na następny spis trzeba czekać 10 lat. Jest też sporo głębokich danych, których spisy powszechne nie wychwytują, a które byłyby nie do przecenienia dla socjologów czy marketingowców. Pozwalają one na introspekcję w ludzkie wnętrza, emocje, poglądy, uprzedzenia, słabości itp. Pochodzą z badań medycznych, eksperymentów psychologicznych, neuropsychicznych, etnograficznych, antropologicznych itp., ale są w większości utajnione w ramach tajemnicy zawodowej. Manovitch przekonująco wytyka słabości badań ilościowych na próbkach populacji. Posługuje się metaforą . Przy powiększeniu zdjęcia nie odkrywa się nowych danych na nim zapisanych, a tylko powiększa te, które na nim już są. Po prostu powiększa się tylko piksele.

Słowem, dotychczas mieliśmy tylko wybór między ilością a głębokością danych, trudno było o jedno i drugie na raz. Dziś dzięki analizie śladów cyfrowych możemy mieć jedno i drugie. Przekonany jest o tym od dawna Albert Laszlo Barabasi, twórca nowej nauki sieci, z której zrodziła się Social Network Analysis. Jest to połączenie matematyki i socjologii, nazywane niekiedy socjologią matematyczną. Władze publiczne, armie, a także biznes chętnie zamawiają takie badania. Stoi bowiem za nimi autorytet nauk ścisłych, czego nie można powiedzieć o naukach społecznych, które wikłają się w różne paradygmaty, hermeneutykę, są niepewne co do jednoznaczności wyników. Socjologia matematyczna daje poczucie pewności - często złudne, ponieważ człowiek nie jest liczbą ani atomem, jest nieracjonalny, emocjonalny, nieprzewidywalny.

Mnogość i głębokość danych o ludziach w sieci, które można łatwo pozyskiwać - to brzmi zachęcająco. I rzeczywiście tak jest. Łatwo badać charakterystyki internautów, demograficzne, społeczne i psychologiczne, analizować pożytki i patologie związane z wykorzystaniem Internetu, badać cybertożsamości, symulowanie, korzystanie z usług świadczonych przez różne podmioty w Internecie, wzory odwiedzania stron WWW, zachowania użytkowników stron, Web mining, schematy poszukiwania informacji, dynamikę i powody skupiania się wokół danych stron, analizować cyberspołeczności, więzi społeczne, tworzenie się ruchów społecznych, wzory interakcji, wyrażanie opinii, postaw, preferencji, oczekiwań, funkcjonowanie grup społecznych oraz wiele innych ludzkich zachowań, działań i wytworów.

Władza w ręce algorytmów

W miarę rozwoju narzędzi rejestrujących rosło pozyskiwanie danych. Zadziałał feedback o cechach spirali kognitywnej i hermeneutycznej zarazem. Dzięki danym i ich obróbce, która oczyszczała "rudę danych" i nadawała im znaczenie oraz użyteczność, ludzie powiększali swoją wiedzę. Dzięki niej z kolei zdobywali coraz więcej danych, ponieważ mnożyły się źródła ich pozyskiwania "nowym szkiełkiem i okiem", o których wcześniej nie wiedzieli. Takim źródłem stawał się przekrój drzewa, który nic nie "mówił", dopóki nie było większej wiedzy o drzewach; nie wiedziano, co "mówią" skały, dopóki nie wzrosła wiedza geologiczna. Wynalazki w sposób rewolucyjny rozwijały bazy danych o ludziach i przyrodzie, np. izotop węgla C14, który pozwolił datować relikty przeszłości miliony lat wstecz, wydzierać tajemnice nie tylko historii, ale także prehistorii.

Słowem, gromadzenie danych to czytanie świata z otwartej księgi, w której ciągle i dynamicznie przybywa stronic. Cywilizacja rosła dzięki tej spirali kognitywnej, która owocowała czujnikami i narzędziami do pomiarów: detektor, sejsmograf, termometr, barometr, spirometr, stetoskop, spektrometr, mikroskop, luneta, okulary, skanery, ultrasonografia, kody kreskowe, RFiD itp. W tle tego wszystkiego było przyspieszenie w zdobywaniu danych, ich przetwarzaniu i wdrażaniu w procesie podejmowania decyzji, a w końcu w produkcji dóbr i w usługach.

Człowiek uzbrajał się w ekstensje zmysłów, które lepiej widziały, słyszały, czuły (dotyk, haptyczność), wąchały (detektory dymu). Mógł coraz lepiej postrzegać świat, organizmy żywe, przyrodę nieożywioną, wreszcie samego siebie, swój organizm, mózg. Istotne, że mógł to wszystko rejestrować, zwłaszcza zmiany, które są spostrzeżoną i uświadomioną różnicą. W dalszym ciągu jednak wiele naszych działań i aktów komunikacji nie pozostawiało śladów, tzn. nie było rejestrowanych na żadnym nośniku - papierze, błonie fotograficznej, taśmie magnetofonowej, celuloidowej ani na dyskach. Większość rozmów twarzą w twarz czy telefonicznych ulatywała w eter, choć naturalnie uruchamiały one działania ludzkie. Dotyczyło to także działania innych zmysłów: słuchania, oglądania, dotykania, które nie pozostawiały śladów.

Dziś mamy do czynienia ze zmianą jakościową: narzędzia zaczynają wyręczać człowieka w użyciu zmysłów, a poniekąd także i mózgu. "Narzędzia wspomagające zmysły zyskały nowe możliwości. Powstały maszyny do widzenia, zdolne utrwalać doświadczenie wedle swych matryc czasu i przestrzeni. Niektóre z nich przejmują nawet obowiązek patrzenia, uprzednio ciążący na użytkowniku. Dzięki optyce cyfrowo-falowej patrzenie nie jest już potrzebne, by widzieć. Powstały maszyny poznania, które są władne wytwarzać i widzenie, i obrazy, w tym obrazy trójwymiarowe, pachnące i mobilne" - pisze Karina Banaszkiewicz w książce "Audiowizualność i mimetyki przestrzeni" (Oficyna Naukowa, Warszawa 2011).

Nie wiemy, co wyniknie z oddawania władzy analitycznej "w ręce" algorytmów. Ale nie ma innego wyjścia. Dane pozyskiwane przez mikroczujniki, rejestratory, detektory itp. muszą być analizowane i przetwarzane przez maszyny. Mózg jako procesor, kalkulator, memoryzator, analizator i syntetyzator, "destylator", autentyfikator, integrator, agregator, defragmentator, dystrybutor itp. od dawna już nie wystarcza. Barierą są też materialne nośniki - papier, taśma itp. Musiało dojść do cyfryzacji, tak jak kilka wieków wcześniej do mechanizacji przetwarzania przyrody, aby wytworzyć niezbędną ilość dóbr. Cyfryzacja to coraz bardziej zautomatyzowane i zalgorytmizowane, doskonalsze, precyzyjne i niezawodne pomiary. Im więcej maszyn analitycznych używamy, tym bardziej redundantne dane uzyskujemy.

Samo sprawstwo w zakresie pozyskiwania danych powierzamy maszynie, ale nadal (choć nie wiadomo jak długo) nic nie jest w stanie wyręczyć człowieka w nadawaniu znaczenia danym, ich interpretowaniu, "ważeniu", wartościowaniu, ewaluacji, a w końcu w podejmowaniu decyzji. Ale czy tak będzie zawsze? Technologie zwalniają nas z potrzeby rozumienia naszych działań. Pozostawiamy to algorytmom, nie zastanawiając się, "co w nich siedzi". Najważniejsze, że działa. Znaczy to, że maszyny przejmują także funkcję tworzenia metadanych (danych o danych), bo tym są raporty, jakie sporządzają i trendy, jakie wychwytują.

Poszerza się skala zapośredniczenia i dystans między sprawstwem a skutkiem czynności. Operujący maczugą, szablą, bronią palną wiedział, że jest sprawcą. Pilot bombowca klikający w ikonkę "zrzuć bombę" takiej pewności nie ma - widzi eksplozję i cel na monitorze, ale to samo robił na symulatorze i złudzenie symulacji może mu pozostać.

Już dawno pogodziliśmy się z tym, że technologie wyzuwają nas z przynależnych wyłącznie naszemu gatunkowi kompetencji. Maszyny posługują się nie ludzkim językiem, którego nie rozumiemy, choć sami je nim nafaszerowaliśmy. To coraz bardziej oddala nas od rozumienia technologii, które są naszym dzieckiem. Szef British Telecom już przed kilku laty przyznał, że przestał rozumieć prawidła i mechanizmy, wedle których działa jego firma, tak się bowiem wszystko pokomplikowało.

To naturalne, że ludzie łakną komfortu życia, nie przejmując się tym, na ile jest on monitorowany oraz kto to czyni: inni ludzie czy same maszyny. Theodor Adorno wypowiedział dawno temu słowa: "każde tchnienie komfortu okupione jest zdradą poznania". Im więcej wiedzy uprzedmiotowionej w narzędziach, tym mniej potrzeba nam własnej wiedzy. Dotyczy to oczywiście społeczeństwa w jego masie, bowiem zawsze musi być jakaś grupa tych, którzy muszą się wspinać na coraz wyższe szczeble poznania, aby utrzymywać systemy w ruchu. Ludzie w swojej masie są coraz bardziej kompetentni, ale systemy, które kreują i obsługują, są coraz "mądrzejsze". Tylko nielicznym dane będzie być jeszcze mądrzejszymi od nich. Każda innowacja bowiem, kiedy już jest wdrożona do technologii, wymaga kolejnej innowacji, jeszcze bardziej sophisticated od poprzedniej.

Prof. Kazimierz Krzysztofek jest wykładowcą w Szkole Wyższej Psychologii Społecznej i wiceprezesem Fundacji Pro Cultura.

Skazani na powszechny Wikileaks

Ludzie są nie tylko podmiotem, ale także przedmiotem badań - potrzeba o nich coraz więcej danych, informacji i wiedzy, ponieważ są konsumentami i wytwórcami, a na nich wspiera się konstrukcja gospodarki. Uczeń McLuhana, Derrick de Kerckhowe chyba nie mija się z prawdą, gdy twierdzi, że o użytkownikach technologii cyfrowych, zwłaszcza tych intensywnych, wiadomo więcej, niż sami wiedzą o sobie. Gromadzi się dane o ludziach, aby ktoś mógł je analizować, po czym wnioski z tych badań są wdrażane do praktyki społecznej, aby była ona bardziej efektywna i znowu poddaje się badaniu tę nową praktykę, aby wiedzieć, na ile została usprawniona. I tak bez końca. Anthony Giddens nazywa to podwójną hermeneutyką. Finalnie chodzi o to, aby na podstawie danych o ludziach tworzyć bardziej sprawne struktury, odpowiednio zalgorytmizowane, przewidywalne, słowem - maszyny społeczne. Algorytmy, procedury badawcze stają się quasi-naturalnym środowiskiem człowieka i jesteśmy coraz bardziej od nich uzależnieni, nie mając już nawet świadomości, że jesteśmy nimi krępowani.

I tak już pozostanie. Dobrą intuicją wykazał się francuski filozof kultury, Jean Baudrillard, który twierdzi, że nasza rzeczywistość, środowisko życia zapośredniczone przez media i technologie, staje się coraz bardziej obsceniczna. Jest obsceniczna dlatego, że technologie czynią ją bardziej widzialną niż rzeczywistość fizyczną, wydzierają tajemnice ludziom, przyrodzie, światu. Nic się już przed nimi nie ukryje; nakładka cyfrowa na ludzi, przyrodę, kosmos, dno oceanów ujawnia potencjalnie wszystkie sekrety. Jest to coś w rodzaju uniwersalnego, przekraczającego wszystkie epoki WikiLeaks, never ending reality show.

Wydzieramy te tajemnice przyrodzie, ale także nam samym, ujawniamy nasze zachowania, mobilność przestrzenną, ale także opinie, stany świadomości, pragnienia, obrzydzenia itp. - nie tylko o czym myślimy, ale także co myślimy. Najbardziej opresyjni dyktatorzy nie wiedzieli tyle o swych poddanych.

To jest rejestrowanie zmian i reagowanie na nie, ale coraz doskonalsze i bardziej wydajne innowacje wywołują kolejne zmiany, destabilizują instytucje społeczne: jedne niszczą inne, transformują i kreują nowe. To oznacza, że wcale ryzyko nie będzie minimalizowane, co więcej - będzie rosnąć, potęgować zmienność życia i codziennie będziemy się czuć nowicjuszami.


TOP 200