Przyszłość komputerowego składu

Układ strony

Układ strony

Ta bardzo istotna część opracowania typograficznego tekstu, jakim jest układ strony, będzie również zmieniać się w najbliższym czasie, choć w sposób mniej dynamiczny niż inne dziedziny wydawnicze. W mniejszym stopniu będzie teraz chodziło o dodawanie nowych udoskonaleń, za to większą uwagę poświęci się zgodności międzykomputerowej oraz umożliwieniu efektywniejszego działania zespołom ludzi pracującym wspólnie za pomocą sieci.

Konsorcjum firm softwa-re'owych i hardware'owych, do którego należą m.in. Quark, IBM, Adobe, Aldus, Apple i Sun, zaproponowało już nowy jednolity standard nazywany PIL (Publishing In-terchange Language), który pozwala na wymianę plików opisujących układ strony między różnymi programami i systemami operacyjnymi. Pliki PIL nie mogą jednak być modyfikowane. Kiedy plik jest przesłany, odbiorca nie może go zmienić. Wspomniane konsorcjum, ochrzczone PPISC (Profes-sionąl Publishing International Standards Committee), będzie wspólnie z producentami pracować nad umożliwieniem modyfikowania zbiorów PIL, ale dopiero po opublikowaniu specyfikacji PIL w 1991 r., ponieważ na razie podstawowym celem komitetu jest prostota. Agnes Imregh, wiceprezes Atex Publishing Systems i przewodnicząca PPISC, wyjaśnia:

Sądzimy, że aby odnieść sukces, musimy szybko dostarczyć odpowiednie narzędzia programistyczne, i aby to zrobić, musimy utrzymać prostotę języka PIL.

Obecnie PIL jest przeznaczony dla gazet i czasopism, ale nie będzie ograniczony do tego typu publikacji. Według Davida Sterna z Atex Publishing Systems PIL będzie udostępniony publicznie, tak że każdy producent będzie mógł go wykorzystać, jeśli tylko zechce. Każdy producent będzie mógł rozwijać język według własnego uznania. Pierwszy pokaz PIL odbył się w Las Vegas na czerwcowej Konferencji amerykańskiego stowarzyszenia wydawców gazet.

W skomputeryzowanym procesie wydawniczym jest olbrzymia luka tłumaczy Warnock. Nie ma elektronicznego odpowiednika zwykłego kawałka papieru czegoś, co pozwoliłoby wymieniać dokument dowolnego typu między różnymi programami użytkowymi, systemami operacyjnymi i komputerami. Musimy mieć lepszą łączność między programami i osiągnąć większą niezależność od środowisk operacyjnych. PIL jest pierwszym krokiem w tym kierunku.

Również Adobe pracuje nad taką wersją swojego języka opisu strony Postscript, który pozwalał-

by na modyfikowanie dokumentów w trakcie ich wymiany między programami i środowiskami.

W tym samym czasie Aldus nadal wzmacnia międzyśrodowis-kową kompatybilność PageMake-ra; Ventura jest przenoszona do nowych środowisk Mackintosha, OS/2 i UNIX-a; FrameMaker przeniósł się z komputerów Sun i NeXT na Mackintosha, a Quark-Xpress jest przenoszony z Mackintosha do NeXT-a, Windows i innych środowisk.

Jest jasne, że wielu producentów oprogramowania dla Mackintosha obecnie adaptuje je do Windows - mówi Seybold. Warto zauważyć, że przenoszenie w drugą stronę na Mackintosha produktów takich jak Ventura i FrameMaker zostało wymuszone przez potrzebę przetwarzania dużych dokumentów. Świadczy to o dojrzałości rynku.

Ale nie wszyscy są zadowoleni z tej zmiany akcentów:

Wydaje mi się, że rozwój tej technologii trochę ugrzązł - skarży się Nace. Programy rozkładu strony nie są ulepszane w takim tempie jak wcześniej. Ventura została przeniesiona pod Windows, ale sama nie jest lepsza. Tęsknię za nową wersją Ventury dla OS/2 lub UNIX-a, która miałaby około 200 nowych cech. Przecież Ventura Software miała zwyczaj robić tak każdego roku.

Z drugiej strony frontu, Roger Parker, autor i redaktor, wskazuje na postępujące zamazywanie się różnicy między programami rozkładu strony a procesorami tekstu:

Nie ma już potrzeby poświęcać czasu lub pieniędzy na wyrafinowane programy rozkładu strony dla prostych prac wydawniczych. Do niedawna takie programy jak WordPerfect były pod tym względem kłopotliwe, ale to zaczyna się zmieniać.

Druk kolorowy

Druk kolorowy jest obszarem, któremu nadal daleko jest do perfekcji, ze względu na problemy z dokładnym skanowaniem o wysokiej rozdzielczości, separacją kolorów, korektą i naświetlaniem. Stopniowo jednak przeszkody te ustępują w miarę nowych osiągnięć w poszczególnych dziedzinach.

Wielu uczestniczących w dyskusji ekspertów zgadza się, że skanery, nawet kosztowne skanery bębnowe, są najsłabszym ogniwem w tym procesie. Jest to konsekwencją kilku czynników, łącznie z niewystarczającą ostrością skanerów o cenach poniżej 2000 dolarów, i obecną technologią cyf-ryzacji obrazu, która może okazać się zbyt słaba. Inna istotna słaba strona to sam mechanizm skanera:

obraz umieszczony na zewnątrz cylindra obraca się w stosunku do nieruchomego lasera, który zapisuje obraz. Niektóre nowsze skanery (kosztujące w detalu od 55 tys. do 140 tys. USD) umieszczają obraz wewnątrz cylindra, w którym porusza się laser. Taka konstrukcja minimalizuje niedokładności ruchu i pozwala osiągnąć jeszcze większą precyzję.

Udoskonalenie skanerów przyniesie rewolucję - mówi Sanjay Sakhuja, właściciel firmy usługowej Digital Pre-Press International w San Francisco. Kiedy problem skanerów zostanie rozwiązany, druk kolorowy w poligrafii biurkowej (desktop publishing) osiągnie poziom tradycyjnych systemów.

Terry Satterthwaite, konsultant biur usługowych i tradycyjnych drukarni kolorowych, sądzi, że w 1991 r. skanery staną się bardziej wyrafinowane inteligentne. Mówi on: • .

To słabe ogniwo zostanie wzmocnione przez interfejs dla Mackintosha do bębnowego skanera Dainippon Screen i przez udoskonalenia innych skanerów, takich jak Scitex Smart II i Optro-nics ColorGetter.

W przyszłym roku lub nieco później zobaczymy precyzyjniejsze mechanizmy laserowe i koszt wysokiej jakości skanerów bębnowych pójdzie w dół - przewiduje David Biedny, prezes firmy Incre-dible Interactivity z Nowego Jorku.

Separacja kolorów, inne słabe ogniwo w procesie druku kolorowego, również staje się łatwiejsza dzięki pojawieniu się standardu Open Press Interface, umożliwiającego współpracę poligrafii biurkowej z drukarniami kolorowymi. Zapisany cyfrowo obraz może być poddany modyfikacjom i separacji kolorów za pomocą wyrafinowanych 32-bitowych programów, takich jak Photoshop firmy Adobe lub ColorStudio firmy Letraset, a następnie przesłany za pomocą OPI do wysokiej jakości urządzeń firm Scitex, Heli lub Crosfield w celu ostatecznego wyretuszo-wania i wyprowadzenia (do przetwarzania obrazów w standardzie OPI firma Scitex stosuje Visionary, firma Hell Graphic Systems Script-Master, a firma Crosfield Studio-Link). Projektant może też wykorzystać PageMaker, QuarkXPress lub inny podobny program do łamania stron w wersji z grafiką o niskiej rozdzielczości. Po przesłaniu złożonych stron wraz z oryginalną grafiką do odpowiedniego zakładu, grafika w złożonych stronach zostanie elektronicznie zastąpiona oryginalną grafiką wysokiej rozdzielczości.

OPI, zaproponowane przez nas mniej więcej rok temu, staje się teraz rzeczywistością - mówi Brainerd z firmy Aldus. Pracowaliśmy z siedmioma czy ośmioma dużymi producentami, takimi jak Hell i Scitex, którzy teraz będą realizować interfejsy programów poligrafii biurkowej do swoich urządzeń. To oznacza, że potencjalnie od 3000 do 4000 drukarń kolorowych na świecie będzie mogło przetwarzać dane otrzymane z programów DTP.

Ale poligrafia biurkowa ma jeszcze jedno słabe ogniwo - korektę koloru.

Obecnie cyfrowa korekta koloru nie jest jeszcze dostatecznie dokładna - ostrzega Biedny.

Ale Jim Medalia, właściciel The Stat Store w Nowym Jorku, sądzi, że znalazł cyfrowy system wysokiej jakości do korekty koloru, a mianowicie kolorową drukarkę atramentową Iris 3021, kosztującą w detalu około 75 tys. USD:

Dostajemy pełny wydruk kolorowy z pośrednimi tonami. Można zobaczyć, jak ostateczny wynik będzie wyglądał, i można to zrobić na tym samym papierze, na którym będzie on drukowany.

Ostatni etap przygotowania druku kolorowego, naświetlanie filmu, poprawi się w 1991 r. dzięki lepszym modelom reprezentacji obrazu, takim jak ten stosowany w Postscript Level 2, i dzięki tańszym naświetlarkom o wysokiej rozdzielczości.

W1991 r. Crosfield, Hell, Scitex i Dainippon Screen wejdą na rynek postscriptowy z tanimi na-' świetlarkami i urządzeniami peryferyjnymi przeznaczonymi dla zakładów usługowych bazujących na Postscripcie, zauważa Satterthwaite. Urządzenia typu Agfa Selectset 5000 pomogą im konkurować z tradycyjnymi zakładami poligraficznymi. Natomiast Scitex Dolev PS reprezentuje odwrotne podejście, mianowicie umożliwia tradycyjnym zakładom zwiększenie swojej atrakcyjności w świecie postcriptowym. Oferuje on doskonałe przetwarzanie koloru charakterystyczne dla Scitex

oraz postscriptowy Raster Image Processor, co potencjalnie pozwala pod warunkiem dostatecznie wiernego skanowania otrzymać dokładnie takie same kolory jak przy tradycyjnej technologii.

To, co chcielibyśmy zobaczyć, to urządzenie, które zapewni wierną, generowaną przez komputer korektę, a następnie dostarczy ostateczne matryce do druku kolorowego. Uczyniłoby to cały proces od ekranu do wydruku prostszym i bardziej niezawodnym mówi Biedny. Ale drukowanie jest przede wszystkim analogowym procesem fotograficznym. Całkowicie cyfrowy druk, od skanera do drukarki, znajduje się ciągle mniej więcej 10 lat przed nami.

A jakie mogą być z tego korzyści dla biznesu?

Tworzenie za pomocą komputera obrazów o jakości profesjonalnej fotografii kolorowej staje się teraz coraz istotniejsze - twierdzi Dianę Burns, która wspólnie z Sharyn Venit posiada TechArt, zakład graficzny w San Francisco, bazujący na Mackintoshach. Możemy tak mówić, ponieważ mamy coraz więcej zleceń tego typu.

Technologia kolorowych monitorów i cechowanie koloni

Jeśli chodzi o monitory kolorowe, to wszyscy czekają na dwie rzeczy: znaczącą obniżkę cen i precyzyjne cechowanie koloru.

Tańsze monitory są koniecznością - mówi Parker. Wielu ludzi nie stać na wysokiej jakości monitor i kolorową kartę graficzną. Typowy monitor obecnie jest zbyt mały lub zbyt drogi i wolny.

Seybold twierdzi za to, że technologia 24-bitowego koloru wymaga drogich elementów, co musi wpływać na cenę.

Wszyscy mówią o kolorze najwyższej jakości. Jednak, może paradoksalnie, najbardziej rozwinie się rynek tanich 8-bitowych monitorów kolorowych. Monitory o rozdzielczości 640 na 480 punktów są potrzebne zarówno do Mackintosha, jak i PC - przewiduje Seybold.

Cechowanie koloru polega na dopasowaniu kolorów na monitorze do tych uchwyconych przez skaner, które ostatecznie mają być wydrukowane; stanowi ono ciągle problem dla skomputeryzowanego procesu wydawniczego. W tej dziedzinie zobaczymy dużo rywalizujących ze sobą standardów i rozwiązań.

Jedną .z przyczyn tego problemu jest to, że na monitorze mamy wyświetlane kolory „addy-tywne", zdefiniowane przez ich składniki: czerwony, zielony i niebieski (RGB red, green, blue); natomiast w druku używane są pochłaniające światło pochodzące z farb kolory „absorbcyjne": niebieski, czerwony, żółty i czarny (CMYK cyan, magenta, yellow, black).

Wielu producentów proponuje niezależne od urządzenia standardy koloru i produkty oparte na różnych wariantach międzynaro- dowej reprezentacji koloru nazy-wanej modelem CIE (Commision Internationale de l'Eclairage; komisja ta przygotowała projekt modelu w 1931 r., który później został zmodyfikowany w 1976 r.). Oto te firmy i ich oferty: Electronics for Imaging (EFI), Adobe (PostScript Level 2), Tektronix (TekColor) i ewentualnie Microsoft (Truel-mage). Wszystkie te standardy istotnie wykorzystują wzory konwersji kolorów z reprezentacji RGB do reprezentacji CMYK. Ta konwersja z przestrzeni trójkolorowej na czterokolorową wymaga arbitralnego zdefiniowania czwartego składnika, tj. koloru czarnego. Z tego powodu formuły te nie są doskonałe i teoretycznie rzecz biorąc doskonałe być nie mogą, choć można je jeszcze ulepszać.

Firmy pracujące nad tymi standardami mają nadzieję, że uda im się ulepszyć formuły konwersji do tego stopnia, że różnice w odpowiednich kolorach będą niezauważalne. Standardy te stosują model CIE także jako sposób na utrzymanie odpowiedniości kolorów na różnych urządzeniach. Jest to poważne wyzwanie, ponieważ do niedawna różne urządzenia miały swoje własne cechy i własne sposoby definiowania koloru.

Bove przewiduje, że z czasem te standardy połączą się w jeden.

Tektronix odgrywa główną rolę w opracowaniu standardów dla drukarek, które teraz są uzupełnione przez systemy dopasowywania kolorów dla monitorów firm SuperMac (SuperMatch) i Ra-dius (Precision Color Calibrator). Standard Tektronixa TekColor jest również popierany przez wielu dużych producentów drukarek, łącznie z Rodakiem i QMS.

Niektóre firmy, takie jak Pan-tone i Trumatch, w ogóle nie próbują znaleźć doskonałej formuły konwersji, ale stosują system próbek czterokolorowych. Przy tym podejściu drukowany kolor jest możliwie dokładnie oddawany na ekranie, ale ostatecznie kolor wybiera się na podstawie książeczki zawierającej dokładne, numerowane, drukowane próbki kolorów uporządkowanych w systemie CMYK. Oba te systemy wymagają monitorów, które dają się regulować w celu osiągnięcia najlepszego przybliżenia kolorów drukowanych. Monitory stają się pod tym względem coraz bardziej precyzyjne, ale nadal dalekie od perfekcji.

Kolor wysokiej jakości stanie się w tym roku nieco łatwiej dostępny, ale obawiam się, że istotna zmiana w tym względzie jest jeszcze daleka - mówi Nace.

Wielokanałowość

Dla wielu osób wielokanałowość (multimedia) to slogan oznaczający dziedzinę o mętnym zakresie i wątpliwej wartości. Dla innych możliwość interakcyjnej pracy z obrazem i dźwiękiem jest bardzo ponętna z punktu widzenia komunikacji, edukacji i szkolenia, ale niedostępna w praktyce. W1991 r. specyficzne dla wieloka-nałowości problemy przechowywania, kompresji, przetwarzania i przesyłania danych zaczną znajdować rozwiązania. Edukacja i biznes włączają się do gry i wkrótce zobaczymy prawdziwe zastosowania.

Wielokanałowość to najbardziej podniecająca część poligrafii biurkowej, ale my wolimy nazywać to wielorakimi technologiami - mówi Hawkins. Informacja, łącznie z obrazem i dźwiękiem, może być przesyłana wewnątrz przedsiębiorstwa. Materiały szkoleniowe mogą być interaktywne.

Zdecydowanie nie jest to osobna dziedzina zastosowań - dodaje Jim Dunn z Apple. Wielokanałowe techniki wiążą się z inżynierią, poligrafią i innymi dziedzinami. Dla przykładu obraz, dźwięk i hipertekst zlewają się ze sobą i łączą również z głównym nurtem zastosowań.

Wielokanałowość jest jedną z najsilniejszych tendencji, to jest Czwarta Fala - mówi McKinney z IBM. Zobaczymy m.in. elektroniczne książki na dyskach kompaktowych. Obecnie np. nasza firma w składzie w Mechanicsburg w Pensylwanii ma 40 tys. tytułów dokumentacji i zamierzamy je wszystkie zapisać w formie elektronicznej.

Wielokanałowość będzie miała znaczący wpływ na przemysł wideo, sprowadzając złożoną i kosztowną technikę do poziomu rynku masowego w ciągu około czterech lat. Samodzielne tworzenie wielokanałowych prezentacji może być za kilka lat dostępne dla każdego.

Biurkowe opracowywanie materiałów wideo stanie się bardzo powszechne - przewiduje Seybold. Obecnie trzeba płacić 300 dolarów za godzinę. To, co się obecnie dzieje z drukiem kolorowym, stanie się również z wideo.

Kompresja zbiorów

Warunkiem powodzenia przekazu wielokanałowego jest znalezienie rozwiązań 'dla prezentacji, manipulowania i przesyłania wielkich plików generowanych przez kolorową grafikę wysokiej rozdzielczości i obrazy ruchome w czasie rzeczywistym. Przy zastosowaniu kompresji zbiorów obrazy mogą być łatwiej przechowywane na twardym dysku, a także na dyskach kompaktowych oraz na wymazywalnych dyskach optycznych. Skompresowane obrazy mogą być również łatwiej przesyłane siecią.

Za pomocą odpowiedniego sprzętu i oprogramowania zbiory mogą być kompresowane i de-kompresowane w trakcie wykonywania korzystającego z nich programu - z technicznego punktu widzenia trudne, ale istotne zadanie dla obrazów wideo w czasie rzeczywistym. Standard kompresji JPEG (opracowany przez ISO Joint Photographic Experts Group i CCITT) jest przeznaczony przede wszystkim dla obrazów nieruchomych, ale może być również stosowany do obrazów ruchomych. Standard MPEG (Moving Pictures Experts Group), nadal w opracowaniu, jest przeznaczony specjalnie dla obrazów ruchomych. Współczynnik kompresji dla JPEG wynosi w zależności od potrzeb od 5 do 100. Obniżenie jakości obrazu zauważa się przy współczynniku kompresji większym 17. JPEG pracuje najszybciej, gdy stosowany jest z odpowiednią kartą kompresji/dekompresji.

Wielu producentów, w szczególności Adobe, EFI, C-Cube, SuperMac, Radius, Kodak i Micron, stosują standard JPEG w swoich produktach sprzętowych i programowych, plotka głosi zaś, że zgodna z tym standardem kompresja może być dostępna sprzętowo w Mackintoshach w ciągu 2 lat.

Dunn nie potwierdza tej plotki: Na pewno będziemy stosować standardy JPEG i MPEG w niezbyt odległej przyszłości. Czy będą one zrealizowane sprzętowo czy programowo, trudno mi teraz powiedzieć.

C-Cube już zapowiedziała, że ich układ kompresji JPEG o symbolu CL55O, kompresujący z optymalnym współczynnikiem 3040 (ale mogący pracować również ze współczynnikiem 100), będzie wykorzystany na 32-bitowej kolorowej NeXTdimen-sion, przeznaczonej dla komputera NeXT z procesorem 68040.

Jak zauważa Bove, niezależnie od wybrania standardu kompresji producenci sprzętu i oprogramowania muszą się zdecydować, czy kompresja będzie odbywać się w skanerze, w oprogramowaniu czy w systemie.

David Biedny przewiduje:

Producenci sprzętu będą umieszczać układy JPEG w swoich maszynach. Już obecnie kilka firm demonstruje karty z układami JPEG. To znaczy, że kompresja i dekompresja mogą odbywać się „w biegu" w czasie pracy. Będzie to niezbędne przy pracy w środowiskach graficznych 24-bitowych, gdzie zbiory stają się bardzo duże.

Publikowanie baz danych

Inny obszar graniczny, w którym nastąpi pewien rozwój w bieżącym roku, to publikowanie baz danych: podłączenie narzędzi foF-matujących i wydawniczych do dużych baz danych w celu tworzenia katalogów, książek telefonicznych, wykazów produktów i innych wydawnictw zawierających dużo danych.

W chwili obecnej publikowanie baz danych dopiero raczkuje. Duże obietnice przynosi w tym zakresie , IBM-owski standard dostępu do dużych baz danych. W 1990 r. dużo popularnych mikrokomputerowych baz danych i arkuszy kalkulacyjnych, takich jak dBase IV, Paradox i Lotus 1-2-3, mogło łączyć się z prowadzonymi na dużych komputerach bazami danych standardu SQL.

Ten kierunek rozwoju - twierdzi Bob Weibel, redaktor „Pu-blish", oznacza, że coraz więcej programów mikrokomputerowych będzie miało coraz lepsze powiązania z dużymi bazami danych przedsiębiorstwa i że inne produkty mikrokomputerowe oparte

na SQL umożliwiają zakładanie na mikrokomputerach dużych sieciowych baz danych. Gupta, Sybase i Oracle to niektóre z firm, które opracowały oprogramowanie usługowe (servery) dla PC w standardzie SQL.

Zgadza się z tym Bryan Standley, przedstawiciel IBM do spraw marketingu minikomputerów AS400:

Zobaczymy znacznie lepszy podział zasobów i danych między duże komputery i mikrokomputery wykorzystywane w celach wydawniczych.

Poza pracami związanymi z SQL obecnie jedyne dostępne powiązania z bazami danych są realizowane dla konkretnych programów wydawniczych. Program dbPublisher firmy Digital Composition wiąże dBase, Paradox, Clipper, FoxBASE i inne popularne programy zarządzające bazami danych z programem Ventura Publisher i automatycznie uaktualnia tekst, gdy modyfikowana jest baza danych. IBM opracował natomiast powiązanie między Interleaf Publisher dla PS/2 i standardową bazą danych dla minikomputera IBM AS400. Datashaper firmy Else-Ware wiąże PageMakera dla Mackintosha z plikiem tekstowym zawierającym znaki tabulacji jako separatory pozycji, wygenerowanym przez dowolną bazę danych.

Jak wskazuje Bove, publikowanie baz danych to coś więcej niż tylko łączenie w jednym dokumencie tekstu i liczb.

Pociągającym aspektem sprawy jest to, że bazy danych mogą obecnie przechowywać obrazy i dźwięk i mogą być rozpowszechniane nowymi metodami.

Te alternatywne w stosunku do druku metody, które obejmują dyski optyczne i materiały wideo, mogą stać się rutynowymi sposobami publikowania baz danych.

W przyszłym okresie publikowania baz danych istotną rolę odgrywać będzie automatyzacja.

Dotąd zautomatyzowaliśmy proces formatowania dokumentów - wyjaśnia Paul Saffo. Teraz czas zautomatyzować proces zbierania danych.

Sugeruje on, że programy użytkowe będą systematycznie obserwować źródła informacji, łącznie z dużymi bazami danych ze zdalnym dostępem, i automatycznie pobierać nowe informacje dla programów wydawniczych.

Zobaczymy to najpierw w dużych przedsiębiorstwach, dodaje Saffo. To będzie najnowocześniejsza technologia, ale jednocześnie będzie to długi i skomplikowany proces, nie pojawi się bowiem żaden przełomowy program, który w katalityczny sposób rozwiąże nagle wszystkie problemy.

A więc co dalej?

W najgorszym nawet razie jest niewątpliwe, że pewne narzędzia wydawnicze staną się silniejsze, bardziej zestandaryzowane i bardziej zautomatyzowane w miarę tego, jak problematyka ta będzie wykraczać poza blat biurka.

Przyszłość przyniesie zwiększoną automatyzację wszystkich faz pracy przy biurku - zauważa Utvich z bardziej zautomatyzowanymi narzędziami rozkładu strony, redukującymi wysiłek przy powtarzalnych zadaniach; duży objętościowo druk elektroniczny, segregowanie i oprawianie; także elektroniczna dystrybucja za pomocą sieci i linii telefonicznych, być może nawet satelitów.

Początkowo zastępowaliśmy tylko stare, wygodne narzędzia mówi Hawkins. Teraz wchodzimy na obszary, na których jeszcze nigdy nie byliśmy.


TOP 200