Amerykańska autostrada danych

Idea utworzenia ogólnoamerykańskiej sieci do przesyłania danych, zapewniającej wysoką przepustowość (1 Gb/s), należała do przedwyborczych obietnic prezydenta Clintona i nie została zapomniana po wyborach. Wiadomo już, że administracja zamierza wydać na ten cel ok. 30 mld USD do roku 2000. Większą część tej sumy pochłoną koszty budowy sieci światłowodowej oraz podłączeń do niej.

Idea utworzenia ogólnoamerykańskiej sieci do przesyłania danych, zapewniającej wysoką przepustowość (1 Gb/s), należała do przedwyborczych obietnic prezydenta Clintona i nie została zapomniana po wyborach. Wiadomo już, że administracja zamierza wydać na ten cel ok. 30 mld USD do roku 2000. Większą część tej sumy pochłoną koszty budowy sieci światłowodowej oraz podłączeń do niej.

W poł. października odbyło się sympozjum Society of Minds, sponsorowane przez Laboratorium Mediów MIT, a poświęcone określeniu głównych problemów badawczych i technologicznych, związanych z planowaną realizacją infrastruktury przesyłania danych. Za jeden z najważniejszych problemów uznano brak inteligentnego, przyjaznego użytkownikowi oprogramowania.

Większość uczestników sympozjum była zgodna, że istnieją już główne składniki, potrzebne do zbudowania takiej magistrali, ale upłynie wiele lat, zanim inżynieria oprogramowania opracuje software, który urzeczywistni pomysły związane z możliwościami nowej technologii.

Zdaniem Michaela Hawley'a, profesora z wydziału Media of Arts and Sciences MIT - "Obecnie Internet stanowi rodzaj taśmy samoprzylepnej, sklejającej w jedno całą infrastrukturę. Magistrala sprawniejsza od Internetu będzie wymagać znacznie szybszych urządzeń przełączających, które potrafiłyby przenosić równocześnie głos, dane tekstowe i graficzne oraz całej gamy inteligentnych modułów programowych, które byłyby zdolne wyszukiwać i gromadzić informacje, rozsyłane następnie za pośrednictwem innych systemów przyłączonych do sieci".

Aby osiągnąć te cele, wytwórcy oprogramowania usiłują stworzyć procedury, które potrafiłyby wykorzystywać metody i zasady, opracowane przez badaczy sztucznej inteligencji. Szczególnie potrzebne są nowe sposoby wyszukiwania i redukowania (filtracji) informacji. Z kolei producenci sprzętu również starają się przy jego konstruowaniu uwzględnić najnowszą wiedzę o funkcjonowaniu układów biologicznych.

Już obecnie użytkownicy mają do czynienia z pierwszymi, surowymi jeszcze realizacjami potrzebnych elementów programowych. Na przykład firma Microsoft w swojej najnowszej ofercie programowej wnosi wiele elementów - nazwanych przez nią agentami - które są w stanie automatycznie wypełniać określone zadania w sieci oraz procedury wyszukiwania tekstów w całej sieci Internet.

Długofalowym celem będzie jednakże uczynienie tych agentów jednostkami bardziej autonomicznymi, tzn. mniej zależnymi od uprzednio zaprogramowanych reguł. Inaczej mówiąc, zamiast np. obecnych systemów ekspertowych o ustalonych zasobach reguł, użytkownikom należałoby raczej zaoferować nową generację inteligentnych agentów, zdolnych do uczenia się na podstawie doświadczeń lub przykładów.

Oto jak mogłoby wyglądać takie uczenie się programu. Weźmy użytkownika, który kibicując rozgrywkom w jakiejś dyscyplinie sportu, zwykł dowiadywać się w weekendy o ich wynikach za pośrednictwem sieci, systematycznie przeglądając wiele serwisów sportowych. Program - rzeczony agent - poprzez monitorowanie interakcji kibica z systemem mógłby nauczyć się, że poznanie wyników określonej drużyny jest dla tego kibica szczególnie ważne i samemu zebrać dane z rozgrywek i przedstawić je w żądanej postaci.

"Aby sprostać tego rodzaju wymaganiom, programiści będą musieli wyrzec się ustalonych metod projektowania i testowania programów i zacząć traktować komputer jak dziecko, zdolne do uczenia się na przykładach" - twierdzi Marvin Minski, założyciel (w latach 60.) laboratorium sztucznej inteligencji w MIT. Główną przeszkodą w tej dziedzinie jest jednak brak odpowiednich narzędzi aby naśladować zdolności ludzkiego mózgu do organizowania oraz korelacji danych.

W tym samym czasie producenci sprzętu odkryli, że zbudowanie systemów posługujących się konwencjonalnymi procesorami tak, aby były one zdolne realizować algorytmy przełączania i sortowania, konieczne do utworzenia magistrali przesyłowej dla milionów użytkowników, mogłoby trwać dziesiątki lat. Dlatego niektórzy producenci sprzętu badają metody wykorzystujące teorię ewolucji i dobór naturalny. Należy do nich Dennis Hillis, założyciel firmy Thinking Machines Corp., który stwierdził, że "obecne metody inżynierskie nie wydają się przydatne dla zbudowania prawdziwie myślących maszyn" i postanowił zbaać, w jaki sposób mózg ludzki sortuje obrazy i dane, w nadziei zastosowania tej wiedzy w dziedzinie komputerów.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200