Wizualizacja o krok od Virtual Reality

W ostatnich latach szybki postęp technologiczny umożliwił konstruowanie tanich, szeroko dostępnych urządzeń graficznych nierzadko o wyrafinowanych parametrach technicznych. Obecnie do standardowego wyposażenia domowych komputerów należą karty graficzne, które mogą wyświetlać obraz dużej rozdzielczości w wielu milionach kolorów. Bliski jest też moment powszechnego panowania układów zdolnych do płynnego wyświetlania złożonych, trójwymiarowych animacji.

W ostatnich latach szybki postęp technologiczny umożliwił konstruowanie tanich, szeroko dostępnych urządzeń graficznych nierzadko o wyrafinowanych parametrach technicznych. Obecnie do standardowego wyposażenia domowych komputerów należą karty graficzne, które mogą wyświetlać obraz dużej rozdzielczości w wielu milionach kolorów. Bliski jest też moment powszechnego panowania układów zdolnych do płynnego wyświetlania złożonych, trójwymiarowych animacji.

Oprócz tanich urządzeń amatorskich, konstruowane są specjalizowane systemy graficzne do zastosowań profesjonalnych. To właśnie one spowodowały, że komputery przestano postrzegać jako narzędzie służące jedynie do wykonywania obliczeń lub szeroko pojętego przetwarzania danych. Dostrzeżono, że dają również sposobność do przedstawiania ich w postaci umożliwiającej jak najłatwiejsze ich przyswojenie i analizę.

Tak w informatyce pojawiły się dwie nowe dziedziny - i wizualizacja danych.

Jakie szczególne cechy graficznej reprezentacji danych przyczyniły się do tak wielkiej jej kariery? Wiadomo, że zmysł wzroku, ze względu na swoje właściwości, dostarcza nam największej ze wszystkich zmysłów ilości danych. Kiedy obserwujemy różne obiekty, w pierwszym rzędzie postrzegamy je jako pewną całość, dopiero później zauważając drobniejsze szczegóły. Wzrok zatem daje nam możliwość syntezy często wielkiej ilości danych. Cecha ta okaże się podstawową w przypadku gałęzi grafiki komputerowej, którą określamy jako wizualizację naukową.

Wizualizacja naukowa

Typowym sposobem postępowania naukowca jest wykonanie eksperymentu lub też ich serii, w trakcie których gromadzone są wyniki. W dalszej kolejności następuje szczegółowa analiza zebranych danych, która ma doprowadzić do sformułowania ogólnych praw rządzących badanym zjawiskiem. Podstawową sprawą jest dokładne poznanie charakteru badanych zjawisk, aby z mnogości danych pomiarowych wyłowić rzeczywiście istotne.

Do niedawna w zasadzie jedyną metodą było ręczne, lub co najwyżej półautomatyczne, nanoszenie danych na wykresy i późniejsza ich analiza. Niestety, w przypadku wielkiej objętości wyników pomiarowych lub gdy były one zmienne w czasie metoda taka była równie czasochłonna, co niedokładna. Ręczna obróbka danych wykluczała w zasadzie ich dużą rozdzielczość (pociągnęłoby to bowiem dalsze zwiększenie ich ilości).

Nauce na odsiecz

Nowe technologie pozwalają na wizualizację na różne sposoby. Za podstawową uchodzi wizualizacja z wykorzystaniem "mapy koloru" dla danych płaskich (tzn. wartości zmiennych na pewnym wycinku płaszczyzny) - identycznie, jak jest to robione w przypadku map fizycznych. Zakres wartości pomiarowych dzieli się na tyle podzakresów, ile występuje kolorów, a następnie każdemu podzakresowi przypisuje się jedną barwę. Umożliwia to szybkie zorientowanie się, gdzie koncentrują się wartości niskie, a gdzie wysokie, i czy ich rozkład jest jednorodny.

Często dane są tak skomplikowane, że trudne do ogarnięcia w całości. Wtedy z pomocą może przyjść możliwość przecięcia ich dowolną płaszczyzną i obejrzenia przekroju. Określa się ją "metodą przekrojów".

Wykorzystuje się w niej proste obrazowanie trójwymiarowe geometrii. Dane często przedstawiają pewne struktury geometryczne (krystalografia, stereochemia, itp.), różniące się w bardzo subtelny sposób kształtem, ale bardziej wyraźnie właściwościami. Możliwość obejrzenia z każdej strony takich tworów może okazać się nieoceniona.

Aby zobrazować dane pochodzące z tomografii komputerowej (zbiór wartości reprezentujących przepuszczalność dla promieni w węzłach regularnej, trójwymiarowej siatki), wykorzystuje się wizualizację wolumetryczną. Każda mała kosteczka tej siatki traktowana jest jak element półprzezroczysty, o kolorze zależnym od odpowiadającym jej wartościom pomiarowym. Następnie symuluje się przejście promieni świetlnych przez zbiór takich półprzezroczystych kostek. W efekcie możemy zobaczyć obrazowane organy i ewentualne zmiany patologiczne.

Odpowiednie oprogramowanie

Oczywiście, aby metody te mogły być praktycznie (w łatwy i szybki sposób) zastosowane, niezbędne jest odpowiednie oprogramowanie. Przykładem doskonałego narzędzia do wizualizacji danych naukowych jest pakiet AVS (Application Visualization System) amerykańskiej firmy Advanced Visual Systems.

Podstawową cechą tego pakietu jest modułowość i struktura sieci. Badacz, chcąc zwizualizować pewne dane, buduje sieć modułów, z których każdy jest wyspecjalizowany do wykonywania jednej czynności. W zależności od tego, z jakimi danymi mamy do czynienia, wczytywane są one jednym z wielu modułów importowych. Poruszając się zgodnie z połączeniami w utworzonej sieci, są one poddawane obróbce przez moduły filtrujące. Źądane przez nas wyniki wyświetlane są przez wybrany moduł wyjściowy.

Istotną zaletą AVS jest możliwość pisania własnych modułów. Osoby o specyficznych wymaganiach zawsze mają możliwość oprogramowania ich we własnym zakresie. Nie jest to konieczne, ponieważ liczba darmowych modułów napisanych przez różne osoby z całego świata jest tak duża, że mogą one zaspokoić wiele potrzeb.

Grono użytkowników tego oprogramowania nie ogranicza się wyłącznie do naukowców działających w ośrodkach uniwersyteckich, lecz obejmuje również firmy komercyjne i przemysłowe placówki badawcze. Wśród nich są firmy zajmujące się systemami informacji geograficznej (GIS - Geographic Information Systems), badaniami geologicznymi, a zwłaszcza badaniami złóż ropy i gazu, wytrzymałością materiałów czy też obrazowaniem medycznym.

Symulatory

Poważnym wyzwaniem dla sprzętu i algorytmów wizualizacyjnych jest konstrukcja symulatorów rzeczywistych urządzeń, takich jak symulatory lotnicze, kolejowe lub różnego rodzaju naziemnego sprzętu wojskowego.

Podstawową kwestią jest dążenie do maksymalnego możliwego realizmu prezentowanych scen. Równie ważne dla jakości całego systemu symulatorowego jest to, aby symulowana rzeczywistość dostatecznie wiernie oddawała sytuacje znane z życia. Dla osób z dużą praktyką dobry symulator powinien sprawiać wrażenie rzeczywistego urządzenia i zachowywać się zgodnie z ich przewidywaniami.

Żądania te nakładają bardzo duże wymagania na podsystem graficzny symulatora.

Na pierwszym miejscu stawia się bazę danych zgodną z rzeczywistością. Od niej w czasie szkolenia pilota lub maszynisty zależeć będzie wiarygodność. Odpowiednio duża częstotliwość generowania obrazu (nie mylić z częstotliwością odchylania pionowego monitora czy też ogólnie wyświetlacza) pozwali uniknąć nieprzyjemnego migotania, szczególnie przy dużych prędkościach kątowych (gwałtowne zwroty, itp.). Również wszelkie napisy mogą być wówczas trudne do odczytania. Jest to szczególnie niekorzystne, gdyż sytuacja taka nie występuje w rzeczywistości.

W symulatorze należy zaprojektować odpowiednio duży kąt widzenia i sposób prezentacji obrazu. W rzeczywistych urządzeniach (samolot, wóz bojowy) kąt widzenia pilota czy kierowcy jest z reguły bardzo duży. Próba oddania takiego pola widzenia na jednym monitorze musi skończyć się niepowodzeniem, ze względu na zniekształcenia, jakie wówczas pojawią się. Nie byłoby to również zgodne z rzeczywistością, w której świat zewnętrzny oglądany jest np. przez duże, panoramiczne okna.

Rozwiązanie, którym trzeba się posłużyć, polega na zastosowaniu kilku oddzielnych urządzeń wyświetlających, na których przedstawiony jest określony wycinek pełnego pola widzenia. Ponadto we wszystkich urządzeniach symulacyjnych - poza ewentualnie najprostszymi - konieczne jest zastosowanie specjalnych układów, których rolą jest stworzenie u obserwatora wrażenia, że generowany obraz nie powstaje na pobliskim ekranie, lecz w dużej od niego odległości, tak jak to jest naprawdę. Efekt ten uzyskuje się poprzez zrównoleglenie wiązki promieni docierających do obserwatora, przy zastosowaniu układów kolimacyjnych lub projekcyjnych.

Pojazdy bojowe wyposażane są w różnego rodzaju specjalistyczne urządzenia obserwacyjne, takie jak układy termowizyjne i noktowizyjne. Kompleksowy symulator musi zawierać możliwość symulacji specyficznego obrazu generowanego przez te urządzenia.

W dobrym symulatorze znajdziemy możliwość zadania dowolnych warunków atmosferycznych oraz pory dnia i roku. Trzeba również stworzyć "cyfrowo" realistyczne efekty specjalne, takie jak ogień, dym, eksplozje lub animowane postacie ludzkie.

Ponadto trzeba przewidzieć możliwość symulowania różnorodnych sytuacji awaryjnych, które w rzeczywistych warunkach mogłyby w łatwy sposób doprowadzić do katastrofy. Ostatecznie jest to jeden z głównych powodów, dla których w ogóle używa się symulatorów w szkoleniu - możliwość wyćwiczenia zachowania w sytuacjach krytycznych bez narażania na niebezpieczeństwo szkolonych osób.

Tym wymaganiom może sprostać tylko kilka produkowanych na świecie najmocniejszych systemów graficznych. Wśród nich są urządzenia z serii ESIG firmy Evans & Sutherland i komputery graficzne ONYX z podsystemami graficznymi Reality Engine2 oraz infiniteReality firmy Silicon Graphics.

Nawet najsilniejsze komputery graficzne będą bezradne, jeśli baza danych opisująca teren nie zostanie bardzo dokładnie zoptymalizowana. Czas, w jakim odbywa się proces generowania obrazu, zależy od tego, jak szybko wyrysowuje się najwolniejszy w jego tworzeniu element. W konsekwencji przypadkowe włączenie do widocznej sceny nawet drobnego obiektu, który nie zostanie odpowiednio zoptymalizowany, może spowodować, że częstotliwość generowania całej sceny będzie nie do przyjęcia. Nieocenioną pomocą dla projektantów systemów wizualizacyjnych dla symulatorów są specjalizowane pakiety programowe, które służą do generowania zoptymalizowanych baz danych. Takie oprogramowanie produkują m.in. firmy: MultiGen i Paradigm. Ich wadą jest niestety bardzo wysoka cena, wynikająca z dużego stopnia skomplikowania.

O krok od "Virtual Reality"

Jak wyglądać może przyszłość podsystemów graficznych i grafiki komputerowej? Przy obecnym tempie rozwoju technologii niełatwo jest przewidzieć, co przyniosą kolejne lata. Na pewno można oczekiwać doskonalenia technik tzw. wirtualnej rzeczywistości, która znajduje się we wstępnej fazie rozwoju. Pełna symulacja otaczającej rzeczywistości, poprzez równoczesne oddziaływanie na zmysły wzroku, słuchu i dotyku, w sposób realistyczny na razie jednak wydaje się dość odległa.

Jerzy Galus, matematyk, projektant systemów wizualizacyjnych w firmie Aerospace Industries Sp. z o.o.


TOP 200