Bit w obiektywie

Chociaż cyfrowe aparaty fotograficzne obsługują coraz większe rozdzielczości, to użytkownika interesuje tylko jedno: czy "cyfrówka" jest lepsza od technologii tradycyjnej?

Chociaż cyfrowe aparaty fotograficzne obsługują coraz większe rozdzielczości, to użytkownika interesuje tylko jedno: czy "cyfrówka" jest lepsza od technologii tradycyjnej?

Prawo Moore'a dotyczy nie tylko rozwoju informatyki, ale także cyfrowych aparatów fotograficznych. Ich podstawowy parametr - rozdzielczość obrazu - podwaja się co około półtora roku (sens ma oczywiście jedynie porównywanie konstrukcji o zbliżonej cenie). Przed trzema laty - do czasu przekroczenia megapikselowej granicy - trzeba było dysponować tysiącem dolarów. W ubiegłym roku za taką kwotę dało się już "kupić" ponad 2 Mp (megapiksele). Obecnie jest już ok. 4 Mp. Czy to dużo?

Fotografia cyfrowa jest bardzo młodą dziedziną. Jeszcze w połowie lat 90. prognozowano, że nawet do 2005 r. jej image będzie nadal gadżetowo-ciekawostkowy. Jednak popularność "cyfrówek" zaczęła bardzo szybko rosnąć. Jednocześnie pojawiło się wiele nieporozumień i niedomówień. Owszem, producenci sprzętu nie kłamią w materiałach informacyjnych. Właściwe rozumienie podawanych parametrów wymaga jednak umiejętności ich interpretacji, w przeciwnym bowiem razie klient nie będzie umiał odróżnić piksela "lepszego" od "gorszego".

Przede wszystkim należy zwrócić uwagę na to, czy producent mówi o optycznej czy interpolowanej rozdzielczości aparatu. Tylko ta pierwsza ma jednoznaczną wartość. Interpolacja jest pożądanym dodatkiem, ale jej stosowanie zwiększa ilość przetwarzanych danych, a nie rzeczywistych informacji (czyli widzianego obrazu). Podobnie jest z cyfrowym zoomem. Jest to zresztą chyba jeden z nielicznych przykładów, gdzie słowo "cyfrowy" oznacza technologię mniej efektywną od tradycyjnej. Taka funkcja, w przeciwieństwie do przybliżania optycznego, daje równie mierne efekty co powiększanie odbitki - ziarnistość obrazu będzie rosła wraz z jego wielkością.

Granice doskonałości

Zdobycie elementarnej wiedzy, potrzebnej do oceny możliwości cyfrowych aparatów fotograficznych, wymaga wyjścia poza obszar technologii informatyczno-elektronicznych. Na calu kwadratowym siatkówki ludzkiego oka jest ponad 100 mln fotoreceptorów. Ledwie 10% z nich to czopki, różniące się funkcjonalnie od pręcików, ale przyjmijmy (upraszczając), że każda ze światłoczułych komórek odpowiada jednemu pikselowi. Daje to naszemu organowi wzroku rozdzielczość kilku tysięcy ppi (pixel per inch), a więc o rząd wielkości wyższą niż ta, którą dysponują typowe aparaty cyfrowe.

Przyjmując stałość prawa Moore'a, można by dojść do wniosku, że jeszcze przed 2010 r. szeroko dostępna cyfrofotografia będzie operować w obszarze 100 Mp. Tym samym teoretycznie osiągnie granicę biologicznej doskonałości narządu wzroku człowieka. Taki "zapas mocy" może mieć znaczenie w obszarze fotografii specjalnej, zbliżeń makro czy w nietypowym oświetleniu (oko ludzkie potrafi reagować już na pojedyncze fotony).

Fotografia cyfrowa dorównuje już możliwościom klasycznej i pozwala osiągać fotorealistyczną jakość dla typowych wymiarów fotografii. Z kolei jakość fotografii klasycznej nie zmieniła się istotnie przez ostatnie dziesięciolecia. Skoro jesteśmy z niej zadowoleni, to widocznie rozdzielczość fotografii dorównuje tej, którą dysponuje nasze oko. Nieprawda. W gruncie rzeczy to nie oczy widzą świat, ale nasz mózg. Fotografia jest optycznym kodem - mózg uczy się go rozszyfrowywać stopniowo, w pewnym sensie do tego dojrzewając. Mieszkańcy egzotycznych krain, zetknąwszy się pierwszy raz ze zdjęciami (nawet własnymi portretami), niewiele potrafili na nich rozpoznać!

Optyczna synteza

Pozwala to na postawienie hipotezy, że za pomocą dobrego oprogramowania dałoby się istotnie "podrasować" jakość cyfrofotki. Nie idzie tu jedynie o zastosowanie algorytmów interpolacyjnych. Potrzebne byłyby rozwiązania na poziomie sztucznej inteligencji w zakresie rozpoznawania obrazów (pattern recognition), a ściśle rzecz biorąc chodzi o proces odwrotny - syntezę obrazu czy raczej pewnych optycznych wzorców na podstawie niepełnej informacji. Takiego oprogramowania na razie nie mamy. Musimy zadowolić się kilkoma milionami pikseli. Czy to wystarczy?

Współczesny film małoobrazkowy 35 mm o czułości 100 ISO zawiera nawet 12 mln pikseli. Żeby przejść do współczynnika ppi, musimy znać rozmiar fotografii. Na razie bowiem mówimy o klatce filmowej 24 x 36 mm. Kilka mnożeń pozwala się przekonać, że daje to 3000 ppi. Z tych klatek powstaną odbitki o wiele większe. Zacznijmy od popularnego formatu 9 x 13 cm, czyli 14 razy więcej. Dzieląc 3000 przez pierwiastek z tej liczby otrzymujemy ok. 800 ppi.

Weźmy Minoltę DiMAGE 7. To pierwszy przeznaczony na masowy rynek cyfroaparat, którego chip CCD zbliżył się do granicy 5 Mp (cena ok. 1400 euro). W trybie najwyższej rozdzielczości możliwe jest robienie zdjęć 1928 x 2569 pikseli. Dla rozważanego wymiaru fotki o powierzchni 18 cali2 daje to 527 ppi. To już naprawdę bardzo dużo. Sceptyk wzruszy ramionami, wskazując na większe rozdzielczości współczesnych drukarek. W końcu zdjęcie chciałoby się obejrzeć także na papierze, a tu bez 600 dpi ani rusz. Prawda, tyle że milcząco przyjęto błędne założenie 1p = 1d (jeden piksel odpowiada jednej kropce drukarskiej, czyli dot).

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200