Dotykalne informacje

Pomińmy szereg wariantów półautomatyczych, związanych z tym przykładem i przejdźmy do wersji zautomatyzowanej, gdzie robot obsługujący linię produkcyjną „wie” ile i czego w danej chwili zapakował (czujniki wagowe, optyczne, liczniki mechaniczne). Precyzyjne dane natychmiast znajdują się w systemie (łącznie z transakcjami zmniejszającymi stany zapasów surowców na podstawie listy części wyrobu gotowego), a paleta wyposażona w radioetykietkę RFID otrzymuje kolejne znaczniki na swej drodze z fabryki, przez magazyny, do klienta.

Pomysły ściślejszego łączenia materii z informacją znajdziemy już u twórcy jednych z pierwszych komputerów – Zusego. Konstruktor postulował istnienie „przestrzeni liczącej” (Computing Space) i wykorzystanie jej własności do budowy komputerów. Dziś echa tych wizji znajdziemy w technologiach wielodotykowych (multitouch). Mamy tu do czynienia z systemem dialogowym człowiek-maszyna, łączącym funkcje urządzeń wejściowych (klawiatura, mysz) i wyjściowych (wyświetlacz). Całość jest rozszerzeniem funkcji, znanego od ok. 40 lat, ekranu dotykowego (touchscreen) i pozwala na intuicyjne posługiwanie się komputerem.

Prototypy urządzeń wielodotykowych pojawiły się kilkanaście lat temu w związku z pracami badawczymi w laboratoriach Bella, a przełom w zastosowaniach praktycznych nastąpił po zakupieniu ścian wielodotykowych przez CIA. W tym samym czasie (2005 r.) firma Jazzmutant wprowadziła na rynek wielodotykowy mikser audio-video (Lemur,http://www.jazzmutant.com/lemur_overview.php). Ci, którzy nie widzieli filmu „Raport mniejszości”, mogą zobaczyć jak działają tego typu urządzenia podczas internetowej prezentacji z konferencji TED (Technology Entertainment Design, Monterey, Kalifornia) pod znamiennym tytułem „Minority Report becomes reality”

(http://www.youtube.com/watch?v=PLhMVNdplJc). Zasady te są też znane miłośnikom iPhona, który stał się pierwszym urządzeniem wielodotykowym, przeznaczonym dla masowego odbiorcy prywatnego (2007 r.).

Kieliszek pełen danych

Z myślą o wielkim rynku zaprojektowano także interaktywny stół Microsoftu (Surface). Mamy tu do czynienia z komputerem bez myszki i klawiatury, który w praktyce jest postrzegany jako duży (30’’) ekran, leżący na biurku. Urządzenie może jednocześnie rejestrować 52 różnorodne sygnały wejściowe, co gwarantuje, że 5 osób może je w tej samej chwili obsługiwać – dziesięcioma palcami każda z nich. Oprócz znanych operacji, których w klasycznym PC-cie można dokonywać myszką (np. skalowanie okien), wielodotykowa powierzchnia rozpoznaje także położone na niej inne urządzenia elektroniczne bądź przedmioty wyposażone w elektroniczne identyfikatory.

Wystarczy, że na takim inteligentnym stole pojawi się cyfrowy aparat fotograficzny, a nasze zdjęcia ujrzymy przed nami, dosłownie w zasięgu ręki, bezprzewodowo i bez używania oprogramowania zarządzającego plikami. Z kolei w restauracji, kieliszki z winem wyposażone w radioetykietki spowodują pojawienie się na stole informacji o trunku, jaki nalał do nich kelner. Widzimy zatem, że i tu celem jest integracja informacji i ich przetwarzania z otaczającą nas materią – meblami, ścianami czy szybami samochodu, które też mogą być interaktywnym ekranem. Zmierzamy więc ku cywilizacji, w której komputery znajdą się dosłownie w każdej klamce i każdym guziku od koszuli.

Taka inteligentna materia, pozwalająca na przetwarzanie zawartej w niej informacji, to zupełnie nowe zastosowania, wymieńmy kilka z nich:

- samochód napędzany energią pobieraną za pomocą opon kontaktujących się z „asfaltem” o określonych właściwościach;

- inteligentna odzież zmieniająca swe cechy, krój, kolor w zależności od pogody czy gustów właściciela;

- samoczyszczące się ściany, meble czy sprzęty gospodarstwa domowego;

- przedmioty tworzące się „same” i „z niczego”, dzięki programowanej syntezie cząstek z otoczenia, na wzór świata roślinnego.


TOP 200