Cena obrazu

Uzyskanie wysokiej jakości obrazu okazuje się niełatwym zadaniem, mimo rozwoju technologii plazmowych i LCD. Dodatkowe trudności powstają podczas przechodzenia do prezentacji trójwymiarowych.

Uzyskanie wysokiej jakości obrazu okazuje się niełatwym zadaniem, mimo rozwoju technologii plazmowych i LCD. Dodatkowe trudności powstają podczas przechodzenia do prezentacji trójwymiarowych.

Przez dziesięciolecia głównym celem informatyki było zwiększanie ilościowych parametrów związanych z procesami obliczeniowymi: jak najwięcej danych, jak najszybciej, w jak najkrótszym czasie. Zafascynowani algorytmiką, mniejszą wagę przywiązywaliśmy do ergonomii i dialogu człowieka z maszyną cyfrową. W czasach gdy komputer był urządzeniem drogim i dostępnym dla nielicznych wybrańców pracujących w klimatyzowanych ośrodkach obliczeniowych, było to częściowo uzasadnione. Sytuacja zmieniła się w latach 80., gdy na milionach biurek zaczęły pojawiać się komputery domowe (home computer) i osobiste (PC). Choć nawet i wtedy zdarzali się tacy, którzy uważali kolorowy monitor z grafiką za gadżet dla laików.

Dziś interfejs użytkownika i ograniczone możliwości urządzeń wejścia/wyjścia okazują się wąskim gardłem technologii informatycznych, spowalniając jej mobilność bądź integrację różnych urządzeń elektronicznych (np. telewizorów i komputerów). Nadal powszechnie posługujemy się klawiaturami, które, zważywszy na dynamikę rozwoju informatyki, robią wręcz archaiczne wrażenie. Trapione "chorobami wieku dziecięcego" ekrany wirtualne nie są jeszcze alternatywą dla małych urządzeń przenośnych, oferujących wyświetlacze niewiele większe od znaczka pocztowego. Nawet stacjonarne monitory prezentują obraz świata jedynie w dwóch wymiarach.

Idealny kryształ

Paradoksalnie, znaczny postęp w produkcji monitorów w ostatnich latach obnaża słabości w tym obszarze, choć na szczęście mamy tu do czynienia nie tylko z konkurencją wytwórców, ale także technologii. Pozycja największej lampy elektronowej będącej w użyciu, tj. katodowego kineskopu CRT (Cathode Ray Tube), była niezagrożona do momentu, kiedy pojawiły się komputery przenośne (laptop, notebook), które natychmiast zaaplikowały ciekłokrystaliczną technologię LCD (Liquid Crystal Display). Wyświetlacze LCD rozpowszechniły się już ćwierć wieku temu w mniejszych urządzeniach elektronicznych (np. zegarki czy kalkulatory). Dodajmy, że mamy tu do czynienia z grupą technologii, którą można podzielić na dwie odmiany: aktywne (TFT - Thin Film Transistor) i pasywne. Ich wspólną cechą - w przeciwieństwie do CRT, organicznej elektroluminescencji (OLED - Organic Light Emitting Diode) czy monitorów plazmowych - jest to, że piksele nie świecą, a jedynie pełnią rolę barwnie filtrowanych polaryzatorów, mogących przepuszczać światło lub nie.

Zaletą LCD jest niski pobór prądu, a wiele wcześniejszych wad - zniekształcenia obrazu podczas oglądania pod kątem, optyczna bezwładność pikseli wywołująca smużenie przy szybszych obiektach, gorsza jakość obrazu, zwłaszcza dla niestandardowych rozdzielczości - zostało w znacznej mierze wyeliminowanych. Ciekły kryształ jest zatem niemal idealnym rozwiązaniem dla stacjonarnej informatyki: płaski ekran, dający ostry, stabilny ("papierowy") obraz o jakości wystarczającej dla typowych zastosować biurowych, związanych z przetwarzaniem tekstu, czy prezentacji graficznych.

Trzeba jednak pamiętać, że to co może wystarczać standardom informatycznym nie gwarantuje pełnej satysfakcji w sferze rozrywki, gdzie miłośnik kina domowego od ekranu wymaga przede wszystkim wysokiej jakości obrazu, tj. szerokiej gamy żywych, intensywnych i naturalnie wiernych kolorów. Tu, w sferze nowych technologii, lepszą pozycję mają monitory plazmowe. Niemniej, najlepiej samemu i naocznie przekonać się o walorach obrazu prezentowanego przez określony typ urządzenia - istnieją tutaj spore różnice parametrów i związanej z nimi ceny.

Cena piękna

Ekrany plazmowe to technologia nieco młodsza niż LCD, ale jej podstawy sięgają znacznie wcześniejszych czasów niż ostatnich kilkanaście lat. Popularna "plazma" to rodzaj zestawu luminoforowych świetlówek wypełnionych gazem, który po przyłożeniu napięcia wywołuje efekt świecenia. Za piękne kolory trzeba jednak wyłożyć nie tylko większe pieniądze przy zakupie, lecz także nastawić się na wyższe koszty eksploatacji wynikające z większego zużycia prądu i mniejszej żywotności związanej z wypalaniem się pikseli. Warto też zadać sobie pytanie, czy bolą nas oczy, kiedy siedzimy w pierwszych rzędach w kinie. Jeśli tak, to może powinniśmy zwrócić uwagę, czy nie występuje u nas podobny efekt podczas dłuższego oglądania plazmowego obrazu.

W każdym razie zdążyliśmy się już niemal przyzwyczaić do tego, że otacza nas coraz więcej płaskich monitorów i produkty obu wymienionych technologii można, oszczędzając miejsce, powiesić sobie nawet na ścianie. Tak jednak nie musi być zawsze i być może niedługo oznaką nowoczesności stanie się ponownie "gruby" monitor. Takie produkty oferuje amerykańska firma Lightspace Technologies. Monitor Depthcube Z1024 potrzebuje niemal kilowata prądu, waży 100 kg i wygląda jak pierwsze, toporne .

Głęboka kostka

Na próżno jednak w środku szukalibyśmy potężnego kineskopu. Wnętrze monitora naszpikowane jest najnowszą technologią LCD. Zarówno jednak nazwa urządzenia, jak i jego wyraźnie zaznaczony trzeci wymiar każą oczekiwać możliwości prezentacji obrazów 3D. Tak się właśnie dzieje, a środkiem do tego celu jest 20 płaskich ekranów LCD, ustawionych jeden za drugim, co daje medium o grubości 10 cm, zdolne do prezentacji obrazów o przekątnej ok. 50 cm (20 cali). Owe 10 cm nie tłumaczą jednak ponad półmetrowej grubości monitora, który zawiera jeszcze dodatkowo projektor (beamer) rzutujący kolorowe obrazy na kolejno aktywowane ekrany LCD.

Łatwo zauważyć, że dla uzyskania częstotliwości odświeżania (refresh) obrazu na poziomie 50 Hz potrzeba 1000 projekcji na sekundę, co nie jest problemem przy sterowaniu za pomocą nowoczesnego PC z odpowiednią kartą graficzną. Za takie cudeńko trzeba zapłacić jedyne 50 tys. USD. Czy warto? Z oczywistych powodów pytanie jest czysto teoretyczne, jeśli chodzi o możliwości finansowe przeciętnego oglądacza multimediów. Inaczej wygląda sytuacja w specjalistycznych zastosowaniach naukowo-technicznych. Trzeba bowiem pamiętać, że użytkownik ma tu możliwość oglądania trójwymiarowego obrazu w zupełnie naturalny sposób. Tym właśnie różni się "głęboki sześcian" od filmów, które można oglądać w kinach IMAX.

Widzimy zatem, jak niełatwe jest przejście do trójwymiarowej optyki i osiągnięcie efektów lepszych od tych, jakie uzyskał Charles Wheatstone w 1838 r. Wtedy to właśnie twórca analizy spektralnej skonstruował spektroskop. Potem czekaliśmy już "tylko" półtora wieku, aby w filmowym hicie lat 70. - "Gwiezdnych wojnach" - można było zobaczyć słynną scenę z hologramem proszącej o pomoc księżniczki Lei. Oczywiście księżniczka była płaska, choć stereoskopowy film potrafiono robić już znacznie wcześniej i nie jest to zbyt trudne. Wystarczy sfilmować te same sceny dwoma obiektywami, a potem spowodować, żeby lewe oko oglądało "lewy" obraz, a prawe widziało jedynie obrazy uchwycone prawym . Zakłada się przy tym, że rozstaw oczu człowieka wynosi średnio 6,5 cm. Uzyskiwane efekty mogą bawić, choć nie są całkiem przekonujące. Zresztą po zdjęciu specjalnych okularów polaryzacyjnych czar pryska.

Holovideo

A co z holografią? Nadmieńmy przy tym, że nasz wkład w rozwój tej technologii jest niemały - do jej prekursorów należał polski fizyk, profesor Politechniki Warszawskiej, Mieczysław Wolfke. W tej metodzie trójwymiarowość jest niemal idealna - hologram zawiera pełną informację o przedmiocie i parametrach jego optycznego otoczenia (w holografii można także stosować promieniowanie rentgenowskie czy mikrofalowe, istnieje też holografia akustyczna).

Mamy dane, a więc wystarczy wziąć urządzenie wyspecjalizowane w ich przetwarzaniu (komputer), aby tworzyć hologramy. Okazuje się jednak, że nie jest to takie proste, a raczej nie takie szybkie. Dość powiedzieć, że komputerowy hologram CGH (Computer Generated Hologram) przedmiotu o kubaturze 1000 cm3 to niebagatelny wolumen danych: 25 GB. W ten sposób na dysku PC moglibyśmy sobie zapamiętać parę decymetrów sześciennych otoczenia. Ale nawet wtedy niewiele moglibyśmy zobaczyć, bo jaki sprzęt zapewni nam prędkość transmisji danych 500 GB/s potrzebną dla skromnych 20 klatek na sekundę?

Być może ratunkiem będzie tu autostereoskopia. Wygląda to następująco. Powierzchnia ekranu składa się z wąskich pasków, które na przemian zawierają obraz dla lewego i prawego oka. Są to więc w gruncie rzeczy dwa obrazy w jednym. Teraz należy znowu spowodować, żeby każde oko zobaczyło tylko to, co jest przeznaczone dla niego. Zadanie realizuje specjalna maska, będąca częścią ekranu - rozdzielnik obrazu (image splitter) - przez którą musi "przebić się" nasz wzrok.

Odmian "samostereoskopii" jest więcej. Producenci stosują przeróżne kombinacje luster i soczewek. Wszystkie te koncepcje mają wszakże dwie negatywne cechy wspólne:

  • nie oglądamy obiektu rzeczywiście trójwymiarowego, a jedynie jego iluzję,
  • stożek, w którym powstaje efekt przestrzenny, jest niewielki.

Zwłaszcza ta druga kwestia jest główną słabością autostereoskopii. Nawet przed potężnym ekranem 40-calowym jest miejsce jedynie dla 2 obserwatorów znajdujących się w odległości dokładnie metra. Zastosowania? Minikina, salony gier, muzea, punkty informacyjne. Z pewnością jednak presja masowych użytkowników może zapewnić nam trójwymiarowe obrazy, podobnie jak stało się to z dźwiękiem mono, który został powszechnie zastąpiony standardami stereofonicznymi.