Zintegrowane informacje

Integracja mediów to już ˙coś więcej niż moda czy drogie hobby.˙Komputer lepiej "słyszy" i˙nie boi się przetwarzania ruchomych obrazów. Te nowoczesne techniki odgrywają coraz większą rolę na rynku˙komercyjnym i rozszerzają możliwości systemów komunikacji gospodarczej.

Integracja mediów to już coś więcej niż moda czy drogie hobby. Komputer lepiej "słyszy" i nie boi się przetwarzania ruchomych obrazów. Te nowoczesne techniki odgrywają coraz większą rolę na rynku komercyjnym i rozszerzają możliwości systemów komunikacji gospodarczej.

Twórca idei "globalnej wioski" - McLuhan - twierdził, że medium informacyjne jest przekazem. Obie koncepcje, zmarłego przed 16 laty kanadyjskiego profesora, potwierdzają się dzisiaj w całej rozciągłości czy raczej "globalności" wszechplanetarnej sieci i multimedialności współczesnej technologii informacyjnej. Wywodzący się z łaciny termin multimediama już ćwierćwiekową tradycję. Początkowo określano nim pomoce dydaktyczne składające się nie tylko z podręczników, ale także z przeźroczy i nagrań magnetofonowych.

Przełom nastąpił na początku lat 80., kiedy to w laboratoriach RCA (Princeton) powstała idea połączenia tekstu, dźwięku, grafiki i filmu w jeden zintegrowany system. Jako medium zaproponowano wówczas analogową płytę wizyjną. Wkrótce jednak rozpoczął się tryumfalny pochód zastosowań krążków CD. W marcu 1987 r. na konferencji w Seattle firma Microsoft publicznie zaprezentowała technologię DVI (Digital Video Interactive). Pierwszy PC (Intel) dla aplikacji DVI miał aż siedem kart specjalnych. Już wówczas pojawiło się oprogramowanie, umożliwiające różnorodne wykorzystywanie DVI:

- elektroniczne zakupy (electronic shopping)

- komputerowo wspomagane nauczanie (Computer Based Teaching)

- reklama w branży turystycznej

- prezentacje firmowe i wystawowe

- symulacje w gospodarce i wojskowości

- rozrywka.

Ten ostatni punkt przyczynił się wydatnie do rozwoju multimediów. Potężny rynek audio-wideo i gier powodował bowiem "technologiczne ssanie" i sprawiał, że inwestowanie w standardy, takie jak CD-I (Compact Disk Interactive) czy CDTV (Commodore Dynamic Total Vision) stawało się opłacalne. To właśnie CD-ROM stał się łącznikiem między światem wyspecjalizowanych odtwarzaczy a informatyką powodując, że terminu multimedia zaczęto stopniowo używać w obecnym znaczeniu tj. w kontekście komputerowym - w roku 1985 w USA odbywa się konferencja Conference and Exhibition on Multimedia and CD-ROM.

O animacyjnych zabawkach, czyli Toy Story

Jeszcze w 1990 roku komputer osobisty z dyskiem większym niż 100 MB należał do drogich, standardowy CD-ROM ze swoją ponad 6-krotnie większą pojemnością był więc prawdziwym kołem ratunkowym w multimedialnym morzu danych. Informacja, która zaczyna się "ruszać" i którą "słychać" zajmuje o wiele więcej miejsca niż dane bez dźwięku i grafiki, w trybie znakowym. Szczególnie wyraźnie widać to na przykładzie animacji komputerowych. Ich początki sięgają roku 1979, kiedy to w firmie Lucasfilm Ltd. powstaje specjalistyczny dział computer division ("Gwiezdne wojny"), z którego wyłoni się później niezależne studio Pixar. 10 lat później "Tin Toy", pierwszy (krótkometrażowy) film animowany stworzony przez komputer otrzymuje Oscara stając się pierwowzorem "Toy Story".

Komputerowe sekwencje pojawiające się w "Casprze", "Królu Lwie" czy "Pocahontas" stanowiły zaledwie fragment filmu, podczas gdy "Toy Story" jest pierwszym w historii kina pełnometrażowym filmem zrealizowanym przy użyciu technik komputerowych. Uzyskanie 25 klatek na sekundę w 79 minutowej produkcji wymagało stworzenia ponad 114 tys. obrazów (frames), przy czym mają one rozdzielczość 1536 x 922 pikseli. Na każdy punkt efektywnie przypada 48 bitów informacji, niemniej mechaniczne wykonywanie mnożeń byłoby uproszczeniem - dość powiedzieć, że ostateczna wersja filmu to wolumen danych o gigantycznych rozmiarach 2000 GB (2 terabajty, TB). Przy średniej wydajności niespełna 4 minut filmu na tydzień już po pierwszym weekendzie zainwestowano w przedsięwzięcie ok. 40 mln USD!

Warto więc przyjrzeć się bazie sprzętowej (render farm) niezbędnej dla wykreowania przygód Chudego i Buzza Astrala. Jej podstawę stanowiły maszyny Sun SPARCstation 20 HS z procesorami 100 MHz, pamięcią 192 MB i dyskami 2,1 GB. Łącznie użyto 117 dwu- i czteroprocesorowych komputerów (294 procesory), z których każdy kosztował ok. 40 tys. USD. Jeżeli wziąć pod uwagę, że modelując drzewo uwzględniano do 12 tys. liści, to nie zdziwi fakt niemal miliona maszynogodzin, jakie zużyło to cyfrowe studio podczas tworzenia filmowych obiektów (rendering).

Świat multimedialny wg Billa Gatesa

"Komputerowa farma" tandemu Disney-Pixar faktycznie jest bardzo drogą zabawką, a jak wyglądała przełomowa dla multimediów specyfikacja standardu Microsoftu MPC (Multimedia PC) z początku lat 90.? Minimalna konfiguracja hardware'owa to procesor 80286 taktowany 10 MHz, 2 MB RAM i 30 MB dysk, uzupełnione kartą VGA i napędem CR-ROM. Skromnie? Przypomnijmy zatem fragment definicji minikomputera wg firmy Datapro Research Corporation z roku 1972:

- brak wymagań klimatyzacyjnych

- waga do 25 kg

- pamięć operacyjna 4-16 KB (tak, tak: kilo a nie mega)

- kontrola parzystości

- 2 akumulatory (mowa o rejestrach arytmometru, a nie - mówiąc złośliwie - źródle prądu lekkiego czołgu).

Dziś dane te budzą politowanie, ale czy nie są one jednocześnie dowodem, że wkrótce każdy z nas może mieć na biurku prawdziwy SILLYWOOD (skrzyżowanie komputerowego HOLLYWOODU z mocami informatycznymi laboratoriów z Krzemowej Doliny)? Jak zwykle pojawia się pytanie, kiedy nastąpi owo "wkrótce".

Przyjmijmy, że średni dysk współczesnego PC-ta to 1 GB, w 1991 r. było to 100 MB, a w 1986 r. powód do dumy stanowił 10-megabajtowy Winchester. Wynikałoby z tego uproszczonego szacowania, że pojemność dysków rośnie o rząd wielkości co 5 lat. W takim tempie poczekamy jeszcze do roku 2010, aby z terabajtowego dysku obejrzeć - w wersji disneyowskiej - historię Chudego i innych. Warto zauważyć, że wchodzące, może nie lada miesiąc, ale powiedzmy lada rok, nowe standardy CD-ROM mają gwarantować pojemności do 20 GB.

Problem ogromnej ilości multimedialnych danych pozostanie również wtedy, gdy będziemy próbowali przerzucić go na barki sieci - internetowy komputer po prostu zaklinuje się w infostradowym korku. Na cóż możemy więc liczyć w przyszłości? Na rozpowszechnienie standardów ISDN, a to przecież "tylko" 64 kb/s. Czy wystarczy tutaj łączenie kanałów i sprytne techniki programowania (JAVA, kompresja danych), aby np. płynność obrazu nowoczesnych w końcu wideokonferencji była lepsza od filmów made in bracia Lumiere?

Trójwymiarowy talizman

Co czeka nas zatem w bliższej perspektywie? Microsoftowi dawno już przestała wystarczać rola czołowego producenta podstawowego oprogramowania dla komputerów osobistych. Bill Gates śmiało atakuje segmenty rynku informatycznego, które tradycyjnie zarezerwowane były dla konfiguracji większych niż przeciętny PC. Tak dzieje się również w zakresie multimediów. Czy jego "Talisman" zagwarantuje mu powodzenie? Tak właśnie nazwano nowy projekt Microsoftu, którego celem jest stworzenie standardów taniej architektury PC, zdolnej do wydajnego przetwarzania grafiki trójwymiarowej.

Do 1998 r. Amerykanie wraz z Philipsem i Samsungiem zamierzają zaproponować nowe rozwiązania graficzne dla PC- tów, tak aby mogły one konkurować ze specjalizowanymi stacjami roboczymi (workstations). Aktualnie konfiguracje PC nie dorównują szybkością przetwarzania grafiki parametrom średniej techniki obliczeniowej (middle data technology). Dla karty graficznej w standardzie PCI orientacyjną prędkością przetwarzania danych może być 50-70 MB/s. Dużo? Porównajmy to z potrzebami następującego monitora:

- rozdzielczość 768 x 1024

- 64 k kolorów (czyli 16 bitów na piksel)

- częstotliwość odświeżania ekranu (ergonomia) 75 Hz.

2 bajty na każdy z 786 432 pkt. ekranu to już 1,57 MB danych, co na sekundę daje teoretycznie 118 MB. Dodajmy jeszcze, że kombinacje z szerokością szyny (bus) karty, np. podwójna szyna 64b, czy specjalne rodzaje szybkich pamięci (VRAM, MDRAM, SDRAM) pozwalają "wyciągnąć" z karty ponad 500 MB/s.

Oczywiście słabą stroną Microsoftu jest w tym kontekście brak własnej technologii sprzętowej (układy scalone), ale od tego są partnerzy. Siłą firmy jest jednak inteligentne oprogramowanie, dokonujące odpowiedniej kompresji danych.

W końcu idea "Talismanu" nie jest nowa i polega na zastąpieniu "brutalnej siły" większych maszyn przetwarzaniem tylko tych obiektów 3D, które znajdują się na pierwszym planie, w połączeniu z okresowym dopasowywaniem tła do zmieniającej się całości obrazu.

Multibazy danych

Pytanie o multimedia jest także pytaniem o odpowiednie bazy danych. Prędkości transmisji to dzisiaj często wąskie gardło systemów informatycznych, ale niezależnie od tego każdą informację trzeba jakoś zapamiętać. Przy czym owo "jakoś" związane jest z wysokimi wymaganiami, do których należy m.in. szybki czas dostępu do danych.

W dyskusji o wyższości relacyjnych baz danych nad obiektowo- zorientowanymi (OZ) sytuacja jest dzisiaj o wiele klarowniejsza niż 2-3 lata temu. Wówczas, kiedy pojawiały się bazodanowe standardy OMG (Object Management Group), do dobrego tonu należało wychwalanie zalet OZBD. Niewielu było takich, którzy mieli na tyle rozeznania, aby dostrzec, że mimo wielu interesujących własności, obiektowo-zorientowane bazy danych nie nadają się do stosowania jako uniwersalne rozwiązania dla podstawowego systemu informacyjnego przedsiębiorstwa. Owszem, OZBD mogą być niezastąpionymi modułami specjalistycznymi o charakterze wyspowym (islands) bądź zintegrowanymi z systemem głównym (interfejsy programowe, organizacyjne).

Tezę tę potwierdzają badania Gartner Group, widząc miejsce OZBD w obszarze inżynierskich technologii "C" (CAD, CAM) czy w telekomunikacji, a nie w próbie całkowitego wypierania relacyjnych baz danych. Paradoksalnie, to właśnie najnowocześniejsze technologie: multimedia, Internet, metabazy i hurtownie danych (warehousing) wykazały siłę modelu relacyjnego. OZBD będą coraz bardziej dojrzałe, choć współczesne aplikacje relacyjne mają własną, wysoką dynamikę rozwojową.

Niezależnie od prognoz dotyczących kształtu bazy danych przyszłości, aktualnie w zakresie multimedialnym rysują się 4 scenariusze:

1. Rozszerzanie aktualnych mechanizmów relacyjnych o nowe standardy np. SQL3.

2. Łączenie relacyjnych baz danych z obiektowo- zorientowanymi w ramach jednolitego systemu interfejsów.

3. Integracja obu paradygmatów bazodanowych pod jednym systemem zarządzania programowego.

4. Obiektowo-zorientowane "nakładki" na relacyjnej bazie danych.

Pierwszą możliwość należy traktować sceptycznie ze względu na różne interesy komercyjne wielkich producentów bazodanowych i ich przewagę nad gremiami normującymi. Drugą możliwość wybiera firma Computer Associates, natomiast lider na tym rynku - Oracle - promuje wariant 3. Czwarta koncepcja polegałaby na obiektowo-zorientowanym dostępie do tabel relacyjnej bazy danych, co wiąże się ze zmniejszeniem wydajności takiego systemu.

Gospodarczy motor czy moda?

Kiedy paręnaście lat temu zaczęły u nas pojawiać się tzw. komputery domowe (home computer), czyli Atari, Commodore i legendarny ZX Spectrum, nie brakło głosów zachwytu, że oto za chwilę z tych, którzy ganiają ludziki po ekranie, wyrosną armie programistów. Oczywiście, informatyczny "klucz do dobrobytu" nie mógł zasadzać się na cudeńkach (la Sinclair. Powszechność przenośnych , zastępujących niegdysiejsze autobusy z napisem "TV Color", również nie spowodowała, że przybyło nam Polańskich i Zanussich. A jednak gry komputerowe odegrały niebagatelną rolę w rozwoju multimedialnych zastosowań gospodarczych.

Do głównych obszarów aplikacji MM w biznesie można obecnie zaliczyć:

- wspomaganie procesów decyzyjnych (wizualizacja danych)

- komunikacja gospodarcza (wideokonferencje)

- dokumentacja techniczna (CAD, instukcje montażowe 3D)

- wirtualna rzeczywistość (symulacje cyberprzestrzenne)

- handel (interaktywne telezakupy, kioski internetowe)

- uzupełnienie oferty mediów drukowanych (encyklopedie, katalogi)

- doradztwo i informacja (nieruchomości, turystyka)

- szkolenia (computer based training, edutainment)

- rozszerzenia działalności operacyjnej (zintegrowane informacje).

Każda z tych technologii to już samodzielna, obszerna dziedzina, a przecież można je łączyć ze sobą na wiele sposobów. I tak z samoobsługowych terminali informacyjnych (point of information) i skomputeryzowanych punktów sprzedaży (point of sale) zaczynają powstawać wirtualne domy towarowe, gdzie zakupów można dokonać za pomocą myszki bądź ekranu dotykowego (słabszym punktem multimediów jest analiza ludzkiego głosu).

Coraz bardziej realna staje się idea telepracy, która stanowi prawdziwe wyzwanie dla dotychczasowego paradygmatu komunikowania się, zmieniając jednocześnie tradycyjne struktury organizacyjne przedsiębiorstw. Łączenie możliwości telewizora i komputera (set-top-box) przyczynia się do tworzenia nowego ładu informacyjnego, zmieniając rolę człowieka w infosferze, który za jej pośrednictwem zaczyna realizować swoje cele. Jakie konsekwencje dla klasycznej sieci handlowej może mieć powstawanie firm, takich jak amerykańska CUC Inc., oferującej na bazie dialogowych mediów komputerowych paletę ćwierć miliona produktów za (dosłownie) pół ceny?

Technologia MM to nie tylko wykrzykniki, to także wiele znaków zapytania. Nie ulega jednak wątpliwości, że wzmacnia ona tendencje istniejące już wcześniej:

- gospodarka globalna (rynek bez granic)

- wzrost zatrudnienia w sferze technologii informacyjnej

- skracanie cykli funkcjonowania i rozwoju wyrobów

- powstawanie dynamicznych i "samouczących się" struktur gospodarczych (alternatywa dla obecnych form przedsiębiorstw)

- wzrost roli informacji i technologii kumunikacji w procesach rozwoju gospodarczego.

Czy na multimediach w praktyce gospodarczej można zarobić? Odpowiedź będzie zależna od specyfiki przedsiębiorstwa, choć, nieraz dopiero stosowanie określonej technologii pokazuje szerzej możliwości z nią związane. Trzeba też pamiętać, że wiele pieniędzy można zaoszczędzić dzięki właściwej organizacji przedsięwzięcia. Zilustrujmy to na przykładzie szkoleń w firmie. Koszty podróży (diety, noclegi) mogą stanowić 1/3 i więcej całości wydatków na te cele. Zareagował na to Ford, postanawiając zmienić zakładowy system dokształcania swoich przedstawicieli w USA.

Konfiguracja za grosze

Pomysł zdalnego nauczyciela połączonego teleinformatycznie z siecią interaktywnych (komputerowo) kursantów był oczywisty. Mniej oczywisty natomiast był problem kosztu stanowisk do nauki (kilka tys. USD za sztukę). Koncepcję zaproponowała firma OTS (One Touch Systems). Jego podstawę stanowi "komputerowa końcówka" (softpad) formatu A5 zawierająca zestaw klawiszy i mikrofon (cena: 50 USD). Nauczyciel ma normalną konfigurację połączoną przez modem i łącze telefoniczne z komputerem w odległej klasie. Do komputera klasowego (konieczny duży monitor) podłączone są lokalne końcówki.

Jeśli uczestnik szkolenia chce zadać pytanie, naciska odpowiedni przycisk, na co reaguje wykładowca - na końcówce pojawia się sygnał świetlny, a dalszy dialog odbywa się w formie rozmowy telefonicznej. Całością zarządza specjalne oprogramowanie, umożliwiające jednoczesną koordynację szkoleń w kilku miejscach. W sensie multimedialnym jest to rozwiązanie przejściowe, ale technicznie stabilne (czasy transmisji) i interesujące finansowo. W roku 1995 obroty OTS wyniosły 15 mln USD, w br. oczekuje się podwojenia tej kwoty.


TOP 200