Krótka pamięć

Otaczający nas ocean informacji powiększa się z każdą chwilą. Oprócz umiejętności selekcji danych i ich interpretacji, musimy także opanować zdolność ich efektywnego zapamiętywania i długotrwałego przechowywania.

Otaczający nas ocean informacji powiększa się z każdą chwilą. Oprócz umiejętności selekcji danych i ich interpretacji, musimy także opanować zdolność ich efektywnego zapamiętywania i długotrwałego przechowywania.

Salvador Dali, jeden ze swoich sławnych obrazów, przedstawiający przedmioty zdeformowane przez czas, nazwał Trwałością pamięci. Gdyby to dzieło powstało dzisiaj, czy byłoby na nim miejsce dla komputerowych skojarzeń? Tego nie wiemy, z pewnością jednak odporność nośników danych na procesy starzenia jest ważnym problemem współczesnej informatyki, a tym samym i całej cywilizacji. Owe nośniki są prawdziwą pamięcią ludzkości, a ich zniszczenie spowodowałoby natychmiastowy i potężny kryzys na skalę całej planety.

Ogólnie media służące do przechowywania informacji można podzielić na papierowe, filmowe, półprzewodnikowe, magnetyczne i optyczne. Jak to zwykle bywa przy wszelkiego rodzaju podziałach, dla zwolenników bardziej egzotycznych opcji można by wprowadzić jeszcze jedną grupę o pojemnej nazwie "inne". Znalazłoby się w niej miejsce np. dla pamięci biochemicznych. Na razie nie są to rozwiązania o "zasadniczym" znaczeniu (tab. 1).

Czarno na białym

Jako medium informatyczne (informacje wejściowe) papier stracił swoje znaczenie, choć jeszcze w latach 70. komputery powszechnie wyposażano w czytniki papierowych kart i taśm perforowanych. Natomiast jako dokument i źródło informacji papier jest wszechobecny, bywa że z ideą "firmy bez papieru" pracownik, ku swemu zaskoczeniu, prędzej może się zetknąć w toalecie niż na stanowisku pracy... Papier ma mechaniczno-optyczną specyfikę, jest relatywnie lekki i można go zabrać ze sobą. A niezależnie od siły tradycji papieru kwestia jakości jest także niebagatelna: oto na typowym monitorze ekranowym nie ma szans, aby zobaczyć pionowo zwykłą stronę A4 w całości i skali 1:1.

Papier, wytwarzany głównie na bazie ścieru drzewnego, zawiera dodatki chemikaliów (ałun), które w zetknięciu z wilgocią uwalniają niszczący kwas siarkowy. Mimo to trwałość papieru nie jest najgorsza i wynosi ok. ćwierć wieku. Jej górna granica w znacznym stopniu zależy od typu papieru i warunków składowania. Papiery specjalne (bezkwasowe) mogą przetrwać do 500 lat. Mimo tych zalet, papier nie wytrzymuje ekonomicznej konkurencji z mediami magnetyczno-magnetycznymi: na dyskietce kosztującej mniej niż dolara można zapisać 500 stron maszynopisu.

Za taką samą ilość papieru zapłacimy już nawet kilka razy więcej. Dodajmy jeszcze dla porządku, że z informatycznego punktu widzenia rozważane medium jest analogowe i ma charakter statyczny. Raz postawiony czy wydrukowany znak pisarski trwa i co najwyżej może ulec zniszczeniu. Za bibliograficznymi danymi dowolnej książki kryje się dzieło, którego postać nigdy już się nie zmieni.

W starym kinie

Filmowy nośnik informacji - taśma celuloidowa - ma jeszcze znaczenie w kinie, ale nie jest to już rozwiązanie nowoczes-ne. Przyszłość należy jednoznacznie do technik cyfrowych. Widać to wyraźnie na przykładzie rozwoju "domowego kina", do którego wkracza technologia DVD, czy w obszarze konwencjonalnej fotografii, wypieranej przez jej cyfrową następczynię. Dla ścisłości dodajmy jeszcze, że do mediów o podłożu filmowym należą zdjęcia rentgenowskie, których w skali światowej wykonuje się ok. 2 mld rocznie. Tutaj również przyszłość należy do rozwiązań cyfrowych.

Alternatywą dla papieru był też przez lata mikrofilm. Technologia ta rozpowszechniła się w informatyce gospodarczej. Szczególnie interesujące okazało się bezpośrednie łączenie wytwarzania mikrofilmów (mikrofiszy) z techniką komputerową - COM (Computer Output on Microfilm). Typowa mikrokarta formatu pocztówkowego może zmieścić nawet 750 stron wydruków A3 wraz z opisem i indeksem (współczynnik zmniejszenia 1:72).

Materiał mikrofilmowy i sposób jego powstawania znane są z procesów fotograficznych. Szacuje się, że takie medium może być użyte jeszcze po kilkuset latach, jeśli jest składowane w optymalnych warunkach (temperatura 14-16Ą, wilgotność względna 25-35%). Kilka razy mniejszą trwałość mają mikrofilmy wytwarzane "na sucho" (TPS - Thermally Processed Silver). Jest to technologia prostsza od konwencjonalnej, w której reakcje chemiczne zastępowane są procesami cieplnymi. Trwałość mikrofilmów można znacznie zwiększyć za pomocą tonowania związkami złota. Przypuszcza się, że tak przygotowany nośnik powinien przetrwać ponad 10 tys. lat!

Dysk na pół wieku

Jeśli chcemy zapamiętywać wielkie ilości danych, to zapewne nie będziemy tego robić korzystając z rozwiązań półprzewodnikowych. Jednostka takiej pamięci jest o rzędy wielkości droższa od rozwiązań z grupy magnetycznej czy optycznej. Natomiast z szybkością dostępu do informacji jest tutaj znacznie lepiej. Najbardziej rozpowszechnionymi nośnikami danych współczesnej informatyki, przeznaczonymi do wielokrotnego zapisu, są media magnetyczne. Można je podzielić na dwie grupy, w zależności od zastosowanego podłoża: metalowego bądź poliestrowego. Do pierwszych należą popularne dyski twarde.

Informacje zapisane na nich są często aktualizowane. Dotyczy to zwłaszcza systemów RAID, w których "wypadnięcie" jednego z dysków w grupie nie powoduje upadku całego systemu, a po wymianie dysku dane rekonfigurują się automatycznie z pozostałych dysków. Ale jaką wartość praktyczną może mieć podawany przez producentów czas ich bezawaryjnej pracy MTBF (Mean Time Between Failures), idący nawet w setki tysięcy godzin. Każda z tych "setek" oznaczałaby 10 lat bezbłędnej pracy dysku? Problem polega na tym, że takie statystyki tworzone są czysto teoretycznie. O modelu, który dziś pojawia się na rynku, można będzie z całą pewnością wyrokować za pół wieku, ale do tego czasu dysk na pewno będzie zastąpiony nowszą wersją.

Z drugiej strony praktyka potwierdza, że dyski są w dużym stopniu niezawodne. Rzecz w tym, że podawane informacje dotyczą odpowiednich warunków pracy dysków, czyli prawidłowej temperatury (np. powinno się unikać montowania dysków jednego nad drugim), minimalizacji zagrożenia ze strony rozładowań elektrostatycznych ESD (Electrostatic Discharge), pracy bez wstrząsów mechanicznych czy wreszcie pracy w środowisku bezpyłowym ("pyłem" bardzo groźnym dla dysków jest chociażby dym papierosowy). Łatwo można sobie wyobrazić, jakiego spustoszenia może dokonać drobinka kurzu wewnątrz dysku. Oczywiście szanse, że taki pyłek dostanie się tam z zewnątrz, są niewielkie, lecz materiały wnętrza dysku też z czegoś się składają i z czasem mogą tracić monolityczne właściwości. Jeśliby do tego doszło, dni pracy dysku byłyby policzone, a syndromem takiego zjawiska jest szybko rosnąca liczba wadliwych sektorów.

Generalnie wszelkim nośnikom danych najbardziej służą idealne warunki do ich długotrwałego przechowywania - temperatura 18-22Ą C (maksymalny gradient 4 K/h), wilgotność względna 35-45% (maksymalny gradient 10%/h) oraz ciśnienie powietrza 75-105 kPa.

Szok wstrząsowy

Dysk jest najbardziej wrażliwy na uszkodzenie wtedy, gdy pracuje i dojdzie do fizycznego kontaktu głowic z medium (head slap). Wytrzymałość mechaniczna dysku określana jest wielokrotnością przyspieszenia ziemskiego (g), jakie może wytrzymać dysk.

Dane przedstawione przez producentów (tab. 2) robią "kosmiczne" wrażenie. Jesteśmy niemal w obszarze prędkości kołowej dla Ziemi. Przypomnijmy, że pierwsza prędkość kosmiczna to ok. 7,9 km/s. Oznacza to, że wyłączony dysk twardy można by bez szwanku wystrzelić w kosmos z wyrzutni rakietowej. Na razie nie jest to możliwe (wystarczy zajrzeć do podręcznika fizyki dla pierwszej klasy gimnazjum). Jak wiadomo przyspieszenie to przyrost prędkości w czasie, a zatem wystarczy odpowiednio manipulować mianownikiem wzoru, aby uzyskać "astronomiczne" liczby w tabeli. Na szczęście, również tutaj obowiązują pewne standardy porównawcze, a regułą jest podawanie przyspieszeń dla czasu 2 ms (tak też zrobiono w tabeli 2). Niekiedy podaje się także wartości dla 11 ms. Dlaczego te czasy są tak krótkie? No cóż, ile może trwać bolesny kontakt z podłogą medium nieopatrznie strąconego ze stołu? Warto również odnieść się do podwójnej wartości w drugiej kolumnie tabeli (dyski Quantum). Pierwsza z liczb odnosi się do zapisu, druga do czytania. To jasne, że problem jest poważniejszy wtedy, gdy pisząca głowica nie jest w stanie utrzymać się na ścieżce, co dodatkowo może zaszkodzić sąsiednim danym.

Laserowe czary

W przypadku pamięci optycznych prym popularności nadal wiedzie klasyczny już CD-ROM. Przynajmniej na razie. Coraz częściej standardem konfiguracji komputerowej staje się napęd DVD. Oba rozwiązania będą jakiś czas sąsiadowały: DVD do odczytu dysków DVD i CD-ROM + CD-WRITER do zapisu płyt CD. Przypomina to nieco sytuację z początku lat 90., kiedy to, dla dochowania zgodności różnym standardom, oferowano komputery PC z dwoma różnymi napędami dyskietek: 5,25 i 3,5". Dzisiaj komputery są wyposażane jedynie w ten ostatni czytnik.

Nie widać końca pochwał na cześć laserokrążków. Mówi się wręcz o "technologiach graniczących z czarami". Ludzki włos (40 mikronów) też jest o wiele za gruby, aby porównywać go z precyzją rowków wypalanych laserem. Czy w tej sytuacji jeszcze ktoś śmie zapytać, jak trwałe są dyski laserowe? Przecież wiadomo że "kompakty" są wieczne! Spójrzmy zatem prawdzie w oczy, aby w porę zapobiec utracie danych i na tym nośniku.

Typowy dysk optyczny to poliwęglanowy krążek, pokryty warstwą refleksyjną (najczęściej aluminium), zabezpieczoną lakierem ochronnym. Część refleksyjna o grubości ok. 100 nm składa się z niewielu warstw atomów, podobnego rzędu wielkości są laserowe wgłębienia (pity). Widać więc jak mało trzeba, aby zaburzyć te delikatne struktury. Nieraz wystarczy rysa spowodowana nieuważnym wycieraniem kurzu. To prawda, że siła cyfrowego dysku tkwi również w tym, iż wraz z danymi użytkowymi zapisuje się także informacje kontrolno- korekcyjne. Zaleca się zatem, żeby mechaniczne czyszczenie dysku przeprowadzać radialnie (od wewnątrz do zewnątrz), nie zaś ruchami okrężnymi - w ten sposób zmniejszamy ryzyko równoczesnego uszkodzenia danych użytkowych i sterujących.

W gruncie rzeczy nie zaszkodzi tutaj stosowanie podobnej ostrożności jak w przypadku niegdysiejszych, "asfaltowych" płyt muzycznych. Dysk optyczny pozostawiony na nasłonecznionym parapecie może ulec termicznym odkształceniom. Plastikowe podłoże może się niebezpiecznie deformować już przy 45Ą C. Chemia i fizyka są bezwzględne. Procesy korozyjne i napięcia powierzchniowe na warstwie refleksyjnej mogą znacznie zmniejszyć żywotność typowego laserokrążka, szacowaną na 20 lat.

Kolor informacji

Dostępne są oczywiście technologie bardziej niezawodne, w których plastik, aluminium i lakier zastępuje się materiałami mineralnymi, złotem i specjalnym szkłem. Takie arcydzieła sztuki informatycznej miałyby przetrwać nawet tysiąc lat.

Nawet w zakresie typowych technologii producenci prześcigają się w gwarancjach trwałości dysków optycznych, lekko przechodząc od dziesiątek do setek lat. Czasu nie da się przyspieszyć, zaś podawane informacje opierają się na ekstrapolacji wyników uzyskiwanych w ekstremalnych warunkach ciśnienia, temperatury i wilgotności, gdzie np. miesiąc przechowywania to rok "normalnego" starzenia się dysku. Takie ekstrapolacje nie muszą być do końca prawdziwe.

Cóż można zatem poradzić informatykowi - archiwiście poza regularnym odświeżaniem danych? Przede wszystkim nie "zapychajmy" medium CD-R do końca. Zamiast 600 MB na jednym dysku, zapiszmy w miarę możliwości 2 x 300 MB. Mamy wówczas większą szansę na uniknięcie problemów z zapisem/odczytem skrajnych ścieżek. Nic nie zastąpi jednak własnych doświadczeń z konkretną partią dysków danego producenta. Przy pozytywnych efektach zostańmy wierni sprawdzonej marce czy technologii. Dla CD-R istotny jest przy tym rodzaj stosowanego barwnika (dye).

Rzut oka na wewnętrzną stronę CDR pozwoli stwierdzić, z jakim rozwiązaniem mamy do czynienia. Wszystkie kolory wywodzą się od trzech podstawowych wariantów, zaproponowanych przez 3 firmy japońskie. Pierwszy to cyjaninowy patent Taiyo Yuden - kolor niebieski. Faktycznie stosuje się tu różnego rodzaju domieszki, zatem różnego rodzaju zielenie wskazują na stosowanie bazy cyjaninowej. W rzeczywistości jest ona niebieska, ale interferuje świetlnie ze złotawą warstwą refleksyjną. Jeśli bowiem widzimy odcienie złotawe, to znak, że mamy do czynienia z technologią phthalocyjaninową (patent Mitsui Toatsu). Z kolei tonacja niebieska to metakompleksowy barwnik azo (koncepcja Mitsubishi Chemicals). Kolor jest o tyle ważny, że ci sami producenci oferują dyski różnych barw i dopiero połączenie: firma - kolor bardziej jednoznacznie identyfikuje technologię.

Laserokrążki mają się całkiem dobrze, zaś w kolejce czekają już nowe rozwiązania, mające zastąpić technologię stosowaną w DVD. To np. hiper-CD-ROM (czytaj CW 41/2000 z 6 listopada 2000 r.). Dość powiedzieć, że taki "hipek" ma pozwolić na wtłoczenie do jednej płyty nawet 10 terabajtów danych. Czy to dużo? Pytanie nie ma wcale charakteru li tylko retorycznego. Oto bowiem stoimy w obliczu eksplozji bomby eksabitowej. Jako ludzkość potrzebowaliśmy tysięcy lat cywilizacyjnego rozwoju, aby zgromadzić pojedyncze eksabajty danych. Dziś podobne ilości wytwarzamy w ciągu zaledwie kilku lat.

Cena pamięci

Przy porównywaniu różnych nośników danych nie można uniknąć odniesienia do kosztów ich wykorzystania (tab. 3). Jako punkt wyjścia przyjęto rozwiązania typowe, tj. streamery, za które trzeba zapłacić nawet i dziesiątki tysięcy złotych. Umożliwiają one zapis na kasecie, bez kompresji, do 100 GB. Trudno jednak przypuszczać, by prywatny użytkownik inwestował w streamer, skoro to urządzenie na-daje się w praktyce tylko do zabezpie- czania danych, w przeciwieństwie do bardziej uniwersalnych mediów o dostępie niesekwencyjnym.

Użytkownik komercyjny musi regularnie sporządzać kopie swoich danych. Z tego obowiązku nie zwalniają także redundantne (a więc i droższe) systemy RAID. Owszem, spełniają one rolę wszędzie tam, gdzie chodzi o podniesienie gotowości użytkowej systemu, ale gwarantują również, że błąd danych na jednym dysku znakomicie przenosi się i na pozostałe. Natomiast tam, gdzie z definicji archiwizuje się duże ilości danych, niezastąpione są rozbudowane systemy DMS (Document Management System).

Klinicznym (w dosłownym tego słowa znaczeniu) przykładem może tu być brukselski Erasmus Hospital. Belgijska placówka leczy stacjonarnie 30 tys. pacjentów rocznie, co wiąże się z dokumentacyjną górą papieru A4 o rozmiarach 3 mln stron rocznie. Dość powiedzieć, że przez kilka lat klinice przybyło ponad 300 m2 pomieszczeń archiwum (przepisy prawne i wymogi medyczne nakazują przechowywanie dokumentów nawet przez dziesięciolecia). W szpitalu Erazma zdecydowano się zatem na rozwiązanie typu jukebox. Każda z takich szaf to 130 dysków o pojemności 7 GB sztuka, co daje pojemność niemal 1 TB na zestaw.

Cyfrowa dziura

Rocznie na świecie pojawia się milion tytułów książkowych i 100 tysięcy płytowych (CD). Wychodzi 150 tys. tytułów gazet i czasopism, kręci się 4 tys. filmów i robi 100 mld zdjęć. Na statystyczną głowę mieszkańca naszej planety przypada ok. 300-500 MB danych rocznie. A trzeba także pamiętać o potężnych strumieniach informacji w postaci niecyfrowej (analogowej), generowanych przez takie media jak radio, telewizja czy telefon.

Informacja w postaci cyfrowej przenika do wszelkich dziedzin naszego życia: dane pogodowe przekazywane przez satelity, sytuacja na giełdach światowych, kwartalny bilans domu towarowego czy stan chorego w szpitalu - wszystko trafia na maszynowe nośniki danych. Ale także cyfrowo zapamiętywana muzyka, filmy, zdjęcia i inne dokumenty naszego codziennego życia. Architektoniczne plany, konstrukcje samochodów i kartoteki przestępców z cyfrowymi odciskami palców. Dane, których zniszczenie sparaliżowałoby potężne systemy gospodarcze i zwykły "szum informacyjny" nieustannie tworzony przez naszą cywilizację.

Wszystkie te informacje mają dwie wspólne cechy: dostęp do nich możliwy jest tylko za pośrednictwem specjalnego kodu, zaś skorzystanie z nich uwarunkowane jest z kolei posiadaniem odpowiedniego sprzętu. Informacja w postaci zdigitalizowanej jest kontekstowa, a ów kontekst ma charakter programowo-sprzętowy. Dane zapamiętane za pomocą mediów komputerowych nie mogą być odczytane bez specjalnego oprogramowania i sprzętu. Cóż mi po najbardziej interesującej dyskietce 8", jeśli nie mam odpowiedniego napędu, do którego mógłbym ją włożyć?

Pismo rongo-rongo z Wyspy Wielkanocnej udało się odczytać, podobnie jak zabytki piśmiennictwa węzełkowego. Oczywiście, że staroindiańskie supełki czy mezopotamskie kliny również mają swój kontekst, ale jest on natury historyczno-społecznej, a nie czysto fizycznej. Co jednak począć z laserową "wypalanką" srebrnego krążka CD? Mikroskopijne zagłębienia to nie tylko tekst złożony z wyrazów czy liter. Równie dobrze może to być trójwymiarowa grafika i nie mające efektywnej wartości użytkowej ciągi bitów kontrolnych i systemowych. Na to nakładają się jeszcze określone kod i format danych. Całość ma zatem strukturę wielowarstwową. No to powodzenia czytelniku z przyszłości!

Format dla wszystkich

Czy jest wszakże o co kopie kruszyć? Formaty ISO i laserokrążki nie znikną tak szybko jak 8" dyskietki. Czy pergaminowe zwoje zapisane "otwartym tekstem" są trwalsze? Z bezcennych skarbów aleksandryjskiej biblioteki zostały tylko popioły po wielkim pożarze w roku 642. Cała nadzieja w tym, że w przyszłości ktoś, gdzieś, np. w jakimś muzeum techniki czy innej Izbie Pamięci Instytutu Miar i Wag, znajdzie starożytne receptury technologiczne tudzież archaiczny sprzęt do odczytywania nośników danych z końca XX w.

Wszędzie tam, gdzie jest to możliwe, powinniśmy zrezygnować z procedur kompresji danych - to może tylko skomplikować próbę ich odczytania. Ideałem byłoby stosowanie jednolitego standardu (formatu) zapamiętywania danych. Istnieje bardzo poważna propozycja takiego rozwiązania, ukierunkowanego na treść danych, nie zaś ich wygląd podczas prezentacji. To standard UPF (Universal Pre-servation Format).

Przemysł komputerowych nośników danych będzie produkował coraz wydajniejsze pamięci i wkrótce ich łączna pojemność przekroczy wszystko, co w ogóle można zapamiętać. Owe media w coraz większym stopniu zapełniać się będą danymi, generowanymi maszynowo, nie zaś tworzonymi bezpośrednio przez człowieka! Każdy administrator bazy danych wie jak szybko rozrastają się dane źródłowe, by po ich wielokrotnym zagregowaniu, uzupełnieniu danymi kontrolnymi, systemowymi czy indeksami stworzyć bank informacji znacznie większy od ich początkowego wolumenu. Z podobnym przerostem formy nad pierwotną treścią musimy się pogodzić w internetowej pamięci globalnej. Informacja o informacji przekroczy swym rozmiarem to, co faktycznie jest nową informacją tworzoną przez ludzi.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200