Czytelnie i bezpiecznie

Czy można podpisywać się drukiem i do tego nie do podrobienia? Okazuje się, że jest to nie tylko możliwe, ale także coraz bardziej nieodzowne. Komputerowe sygnatury stają się wyzwaniem dla istniejących przepisów prawnych i standardów Internetu.

Czy można podpisywać się drukiem i do tego nie do podrobienia? Okazuje się, że jest to nie tylko możliwe, ale także coraz bardziej nieodzowne. Komputerowe sygnatury stają się wyzwaniem dla istniejących przepisów prawnych i standardów Internetu.

Przeglądając codzienną pocztę elektroniczną mamy do zweryfikowania o wiele mniej niż 100 tys. podpisów. Domyślamy się więc szybko, że E-mail z pozdrowieniami od prezydenta, to żart znanego z podobnych dowcipów kolegi. A jeśli to nie kawał?

Nie dalej jak 1. października dokonano informatycznego włamania do zasobów Centralnego Banku Włoch oraz do Państwowego Instytutu Energii Atomowej w tym kraju. Listę takich doniesień można by dowolnie wydłużać. Bank odłączono od Internetu jeszcze tego samego dnia, ale czy to jest rozwiązanie?

Co miesiąc Internetowi przybywa milion nowych użytkowników. Wystarczy przyłożyć tę liczbę do krzywej rozkładu normalnego, aby uświadomić sobie, że co kilka tygodni w światowych sieciach komputerowych pojawia się kolejna, liczna grupa "wesołych" hakerów. Z drugiej strony wiadomości powierzane procesom teleinformatycznym mają często o wiele większą wagę niż okazjonalne życzenia. Konieczność zapewnienia bezpieczeństwa tym danym jest więc niepodważalna.

Jest to niewątpliwie wada Internetu, która powoduje, że menedżerowie wielu firm ostrożnie włączają swoje sieci lokalne do Internetu. Owszem, Internetowi przybywa także komercyjnych użytkowników, niemniej sieć ta ciągle wykazuje wiele cech elitarnej zabawki, co ogranicza jej stosowanie w biznesie. Historycznie jest to całkowicie zrozumiałe -wystarczy zajrzeć do założeń jakie sformułował Paul Baran z firmy RAND, podczas realizacji jednego z projektów Pentagonu, ponad 30 lat temu.

Zadanie postawione przez amerykańskich wojskowych brzmiało: stworzyć sieć komputerową dla armii i instytucji rządowych, która wytrzymałaby radziecki atak nuklearny. Odpowiedzią na tak postawiony cel był dokument o nazwie RAND-PROPOSAL z roku 1964. Koncepcja ta opisywała zdecentralizowaną i "poszarpaną" sieć teleinformatyczną. Od początku przyjmowano, iż ważniejszą od stabilności aplikacji na serwerach i poszczególnych połączeń między nimi, jest niezawodność sieci jako całości.

Niechaj każdy kto korzysta z Internetu, zechce skonfrontować tę cechę z własnymi doświadczeniami. Chociaż faktem jest, że gdy podczas ubiegłorocznego silnego trzęsienia ziemi w Kalifornii nastąpiło załamanie się sieci telefonicznej na zachodnim wybrzeżu USA, komunikacja z Los Angeles była nadal możliwa poprzez E-mail. Z drugiej strony, Internet wyrasta powoli z chorób wieku dziecięcego, aczkolwiek stopień rozpowszechnienia dotychczasowych standardów utrudnia szybsze wprowadzanie nowszych rozwiązań.

Sposób adresowania pakietów danych w Internecie, oparty na protokole IP, zakłada że droga pakietu od nadawcy do odbiorcy nie ma znaczenia. Zwiększa to wprawdzie elastyczność całego systemu, ale w praktyce może oznaczać wędrówkę wysłanej informacji przez długi ciąg serwerów. Bezpieczeństwo naszego przekazu jest więc zależne od tego "łańcucha komputerów dobrej woli". Z tego powodu gremium IETF (Internet Engineering Task Force) zajmuje się rozwojem nowego standardu IPNG (IP Next Generation). Najnowsza jego wersja IPv6 ma już takie mechanizmy zapewnienia wiarygodności informacyjnej jak:

*sprawdzanie autentyczności

*gwarancje integralności

*szyfrowanie.

W gruncie rzeczy jednak, kluczy do bezpiecznej pracy z Internetem należy poszukiwać poza nim samym (!). Najbardziej radykalnym rozwiązaniem jest rezygnacja z dostępu do Internetu. Nie ma w tym nic śmiesznego i tak się dzieje w bardzo wielu przedsiębiorstwach. Firmy takie korzystają z własnych sieci w połączeniu ze specjalistycznymi usługami telekomunikacyjnymi i w ten sposób zapewniają łączność tysiącom swoich pracowników na całym świecie. Dodatkowo, na izolowanych stanowiskach, umożliwia się dostęp do Internetu dla wybranych osób.

Niewątpliwie ciekawszą metodą jest tworzenie "informatycznych ścian ognioodpornych" (firewall). W ten sposób sieć lokalna staje się warownym zamkiem, do którego dostęp możliwy jest jedynie przez strzeżony most zwodzony. Konfiguracja takiego "mostu" bywa różnorodna. Może to być jeden dedykowany komputer lub wiele maszyn np. odrębne serwery dla serwisu WWW i dla FTP - taką strukturę wygodnie można izolować w osobnej podsieci.

W szczególności mamy do czynienia z inteligentym gatewayem, który komunikuje się z routerem stanowiącym jedyne "okienko" na szeroki świat Internetu. Ów gateway, z zainstalowanym oprogramowaniem firewall, może przejawiać się w trzech postaciach:

- packet-filter gateway - PFG

- circuit-level gateway - CLG

- application gateway - AG.

Packet-filter gateway sprawdza adres nadawcy i odbiorcy każdego pakietu i indywidualnie decyduje czy może być on przetransportowany dalej. Zaletą takiego rozwiązania jest jego "przezroczystość" dla użytkowników - poza sytuacją gdy następuje odmowa transmisji danych. W wariantach bardziej rozbudowanych gateway analizuje także zawartość pakietów.

Na innej warstwie teletransmisji umiejscowiony jest Circuit Level Gateway. Dla obcego użytkownika wygląda to tak jakby komunikował się on bezpośrednio z komputerem firewall. Dopiero po sprawdzeniu praw nadawcy następuje realizacja użytkowego połączenia i transport danych.

Najbezpieczniejszą i najkosztowniejszyą koncepcją jest użycie Application Gateway. Na komputerze firewall instalowany jest osobny program sprawdzający dostęp dla każdej aplikacji. W ten sposób można również kreować profile transmisji specyficzne dla poszczególnych użytkowników pracujących z określoną aplikacją (np. dopuszczalne podczas łączności zasoby - czasy, serwisy i komputery). Oprogramowanie AG posługuje się ostrożną strategią: "wszystko co nie jest dozwolone jest zabronione", co bardziej ogranicza użytkownika niż zasada prostszych maszyn firewall: "wszystko co nie jest zabronione jest dozwolone".

Przykłady te pokazują jednak, że nawet najbezpieczniejsza sieć nie załatwi za nas wszystkiego. Poczta może stworzyć system kontroli gwarantujący, że worek z listami nie wyląduje w Wiśle, a przesyłka będzie otwierana wyłącznie przez adresata. Kto jednak może zapewnić nam poufność przekazu, jeśli będziemy pakować nasze informacje do przezroczystych kopert? I tu jest właśnie miejsce dla kryptografii i elektronicznych podpisów.

Podpis taki to nic innego jak kod generowany w procesie kryptograficznym na podstawie treści podpisywanego dokumentu. Nie ma to więc nic wspólnego z podpisem "zdygitalizowanym" uzyskanym np. za pomocą skanera. Użycie kryptografii do generowania sygnatur powoduje, że łatwo można też szyfrować cały dokument i w ten sposób uzyskuje się podwójny efekt o fundamentalnym znaczeniu dla dalszego rozwoju skomputeryzowanej łączności:

- przekaz jest bezpieczny

- autentyczność przekazu jest zweryfikowana.

Znaczenia tego efektu nie da się przecenić a jego rozpowszechnienie mogłoby wręcz zrewolucjonizować całe obszary ludzkiej działalności. W przewidywalnej przyszłości łączność komputerowa będzie tak powszechna jak telefonia. Wyobrażalne jest więc powstanie systemu bezpośredniej demokracji, gdzie referenda można by przeprowadzać codziennie, gdyż byłoby to tak proste jak naciśnięcie sejmowego guzika do głosowania. Zadaniem komputera byłaby eliminacja podwójnego przyciskania czy sprawdzenie autentyczności podpisu wyborcy.

Najbardziej burzliwe dyskusje socjologów, dotyczące wad i zalet takiego rozwiązania, nie zmienią faktu że technika takie możliwości stwarza, a skoro tak to prędzej czy później będą one zrealizowane. Nim jednak biura notarialne skreślą ze swych list oferowanych usług uwierzytelnianie podpisów, konieczne są nowe standardy prawne. Przepisy takie mogłyby spowodować urzeczywistnienie się od lat śnionego marzenia o biurze bez papieru.

Paradoksalnie, fakty przeczą ciągle formułowanym prognozom o redukcji zużycia papieru dzięki wprowadzaniu komputerów. Waski gardłem jest tu na pewno funkcjonalność (a raczej jej brak) pakietów komunikacji biurowej, ale nie mniej istotną rolę odgrywa aktualny system prawny. Dość powiedzieć, że dopiero w lipcu br. wprowadzono w USA przepisy, zrównujące pod względem prawnym podpis elektroniczny z konwencjonalnym.

Oczywiście każdy prawnik lub menedżer postawi tu uzasadnione pytanie: czy komputerowa sygnatura jest faktycznie nie do podrobienia? W tym miejscu trzeba zrobić ukłon w kierunku kryptologii, która ma w naszym kraju dobre tradycje, wynikające z osiągnięć naszej międzywojennej matematyki, co zaowocowało m.in. rozszyfrowaniem kodów hitlerowskiej ENIGMY.

Pomijając metody średniowieczne czy szyfr Juliusza Cezara, za jednego z ojców współczesnej kryptologii można uznać amerykańskiego inżyniera Gilberta Vernama. W 1917 roku stworzył on niezawodną metodę szyfrowania działającą wg następującego schematu:

a) zamienić informację na ciąg zerojedynkowy

b) znaleźć klucz, będący losowym ciągiem bitowym o długości szyfrowanej informacji

c) zakodować informację za pomocą klucza i funkcji logicznej XOR (wykluczające LUB).

d) dla zdekodowania informacji odbiorca używa identycznego klucza.

Ostatni warunek jest charakterystyczny dla tzw. metod symetrycznych - łatwo zauważyć, że metoda taka dla n użytkowników wymaga n(n-1)/2 kluczy. Dla grupy 100 osób potrzeba więc prawie 5 tys. kluczy, a przecież "internautów" są już miliony. Zresztą metoda Vernama jest pewna tylko wtedy, gdy klucz będzie zmieniany po każdej transmisji, no i sam klucz musi być przekazany odbiorcy poufną drogą, najlepiej więc poza używanym kanałem informacyjnym.

Wyjście z tego pata zaproponował Whitfield Diffie w swojej pracy "New directions in cryptography" (1976 r.) tworząc asymetryczną metodę kodowania wymagającą jedynie n kluczy dla n użytkowników. Ściśle rzecz biorąc chodzi tu o pary kluczy czy też klucze dwuczęściowe składające się z części jawnej i tajnej.

Metoda ta została udoskonalona na słynnym MIT i jest znana pod nazwą RSA (Rivest-Shamir-Adleman public key crypto system). Jeden z jej twórców - Ronald Rivest - w 1977 roku, na łamach pisma "Scientific American" wyznaczył nagrodę dla każdego kto złamie szyfr RSA, wyrażając przekonanie, że nie nastąpi to za jego życia. Czy pan Ronald się przeliczył czy też może nie zamierzał zbyt długo żyć, faktem jest, że został niedawno "rozszyfrowany". Zrobili to właśnie internauci sprzęgając w sieci niemal dwa tysiące komputerów, które przez ponad pół roku wykonywały równoległe obliczenia.

Lojalnie trzeba dodać, że tym wielkim nakładem sił i środków złamano ledwie jeden 430-bitowy klucz. Obecnie istnieją też lepsze metody, a sam standard RSA bazuje przeważnie na kluczu 512-bitowym, tak więc system można uznać za praktycznie bezpieczny. Niemniej, jak to zwykle w technice bywa, i tutaj może dojść do "wypadku przy pracy", choć jego prawdopodobieństwo jest statystycznie bardzo niewielkie.

Czas wyjaśnić zasadę kryptologicznej asymetrii - zróbmy to na przykładzie metody PGP (Pretty Good Privacy). Jako się rzekło, metoda wykorzystuje parę kluczy (losowe ciągi wygenerowane choćby za pomocą zegara wewnątrzkomputerowego): secret key i public key. Klucz tajny utrzymywany jest przez jego właściciela w tajemnicy, natomiast jawny może być traktowany jako własność publiczna. Chcąc zaszyfrować wiadomość, używamy naszego klucza tajnego i jawnego klucza odbiorcy. Odbiorca rozkodowuje informacje własnym kluczem tajnym i naszym publicznym.

Czyż to nie proste? chciałoby się powiedzieć. W rzeczywistości skonstruowanie tej maszynki do szyfrowania trwało lata, a dogłębne zrozumienie jej zasad działania wymaga sięgnięcia co najmniej do twierdzeń szwajcarskiego matematyka Eulera. W praktyce wystarczy wiedzieć, że aktualny wariant PGP korzysta z klucza długości 2048 bitów i że w Internecie są specjalne serwery kluczy (key-server) co jest niezbędne dla powszechnego wykorzystywania metody.

Niezależnie od metody tworzenia elektronicznych podpisów winny one spełniać następujące wymagania:

* tylko prawowity nadawca dokumentu może go elektronicznie podpisać

* podpis jest integralny informatycznie z całością dokumentu i tylko z nim ważny

* odbiorca dokumentu może dokonać jednoznacznej weryfikacji prawdziwości podpisu.

Spośród standardów z tego zakresu warto także wymienić amerykański Digital Signature Standard (DSS). Metoda została opracowana przez specjalistów NIST (National Institute of Standards and Technology) i korzysta z algorytmu SHA1 - prace nad nim ukończono w kwietniu br. Problemy natury prawnej powodują, iż przyszłość tego i innych standardów w rozważanym obszarze, nie jest jasna. W Europie dyskutuje się obecnie nad wprowadzeniem norm DSS w ramach ETSI (European Telecommunications Standards Institute).

Rzecz jasna dla przeciętnego użytkownika wygenerowanie kryptopodpisu powinno być tak proste jak sięgnięcie po zwykły długopis. Wystarczy jednak przyjrzeć się właściwościom oprogramowania typu E-mail żeby przekonać się, iż nie jest to oczywistością. Podstawą generowania podpisu z komputera jest możliwość szyfrowania informacji, tymczasem jeden z lepszych programów poczty elektronicznej, jakim jest cc:mail Lotusa, w ogóle nie posiada takiej opcji (wersja 2.1). Jest zaś dostępna np. w pakiecie software'owym DaVinci E-mail 2.52.

Być może jednak firmy software'owe zaczną też wkrótce stosować elektroniczne podpisy do potwierdzania autentyczności oprogramowania, co stanowiłoby dodatkową gwarancję antywirusową. Powszechne przypisanie kluczy użytkownikom (hardaware) i oprogramowaniu byłoby także skuteczną metodą wymuszającą korzystanie z legalnie zakupionych pakietów i umożliwiającą większą kontrolę zarządzania licencjami w sieciach.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200