Czekając na nieuniknione

Zasadnicze różnice

Eksperci próbują przedstawić scenariusz cyfrowego Pearl Harbor (choć biorąc pod uwagę, że z definicji wydarzenie tego typu ma nieść nieprzewidywalne konsekwencje, raczej nie będzie wyglądać w taki sposób).

Na początku grudnia 2008 r. systemy informatyczne na całym świecie ulegają awarii i nie udaje się ich ponownie uruchomić. Awaria ma charakter globalny. Poszczególne systemy przestają działać niemalże w tym samym momencie. Wszystko odbywa się błyskawicznie. Problem nie dotyczy komputerów PC, ale infrastruktury internetowej - serwerów DNS, routerów - i systemów przemysłowych podłączonych do Internetu. Awaria jest skutkiem nieznanego lub bardzo mało znanego błędu w oprogramowaniu.

Pięć czynników odróżnia cyfrowe Pearl Harbor od ataków wirusowych, z jakimi miano do czynienia dotychczas. Po pierwsze, awaria dotyka także systemów backupowych. To właśnie systemy archiwizowania danych pozwalały do tej pory na unikanie poważnych konsekwencji występujących awarii.

Po drugie, powstaje efekt kaskady, awarie jednych systemów prowadzą do awarii innych, a te do awarii kolejnych itd. Ze względu na awarie systemów backupowych przedsiębiorstwa tracą dane o wynikach finansowych. Na giełdach pojawia się panika. Ludzie masowo udają się do banków, by wycofać swoje oszczędności. Odchodzą z kwitkiem, ponieważ awarie dotknęły również systemy bankowe, systemy kart kredytowych i sieci bankomatów. Ludziom brakuje gotówki, zaczynają być głodni. Gasną światła. Zaczyna być zimno.

Powszechna panika to kluczowy element cyfrowego Pearl Harbor.

Po trzecie, choć ataki następują błyskawicznie, negatywne skutki są odczuwane przez kolejne tygodnie. Ludzie są głodni. Marzną. Starcy i dzieci umierają. Młodzi i silni walczą o życie.

Po czwarte, kiedy jest już po wszystkim, zostaje określone źródło awarii. Wskazuje się konkretne błędy w oprogramowaniu, które do niej doprowadziły. To kolejny element, którego w trakcie dotychczasowych awarii czy epidemii wirusów brakowało - nie wskazywano winnych, nie spadały żadne głowy. Z chwilą gdy zostaną wskazani winni zaniedbań - bezpieczeństwo ma się wznieść na kolejny, nieporównanie wyższy niż obecnie poziom.

Po piąte, najważniejsze, kiedy zostaje wskazane źródło zdarzenia, opinia publiczna dochodzi do wniosku, iż strat finansowych, chaosu, śmierci niewinnych ludzi można było uniknąć.

Lekcja historii

Bezsensowność ogromnych strat wytwarza społeczny gniew. Naturalną odpowiedzią jest pociągnięcie winnych do odpowiedzialności. Wytaczane są procesy dostawcom technologii i dostawcom usług. Winnych poszukuje się w całym łańcuchu powiązanych ze sobą podmiotów gospodarczych i organizacji. Hakerzy, bez względu na ich intencje, zostają aresztowani i skazani. Rządy dotkniętych skutkami awarii państw współpracują ze sobą, ścigając winnych.

Po fali procesów następuje etap poprawiania istniejącego prawa. Historycznie - po katastrofach zawsze następuje faza regulacji. Po awarii Titanica w 1912 r., kiedy operatorzy firmy Marconi zbyt późno dowiedzieli się o górach lodowych na trasie, ponieważ transmisja była zakłócana przez amatorskich użytkowników łączności radiowej, w USA wprowadzono ustawę Radio Act oraz stworzono Federalną Komisję Komunikacji. Załamanie na giełdzie z 1929 r. dało impuls do stworzenia amerykańskiej Komisji Papierów Wartościowych i Giełd.

Kolejnym krokiem po wprowadzeniu regulacji będzie proces standaryzacji. Z punktu widzenia bezpieczeństwa Internet potrzebuje wielu standardów, np. standardu dotyczącego raportowania o błędach, standardu dla poprawek do oprogramowania, jednolitego systemu nazywania zagrożeń i określania ryzyka z nimi związanego czy wreszcie standardowych, bezpiecznych konfiguracji sprzętu i oprogramowania. Weźmy dowolną dojrzałą dziedzinę życia i znajdziemy mnóstwo standardów - przekonują eksperci.

Ostatnim etapem reakcji na cyfrowe Pearl Harbor będzie "reformacja" - powszechna, kulturowa zmiana w kierunku lepszych praktyk związanych z bezpieczeństwem systemów informatycznych. Pomimo świadomości potrzeby zmian, reformacja nie nastąpi jednak w ciągu kilku dni. To proces, który zajmie co najmniej kilka lat czy nawet dekadę.

Technologiczny przywódca

Oczywiście, tego typu zmiana musi mieć przywódcę na miarę Marcina Lutra, który nie tylko będzie dążył do zaprowadzenia nowego porządku, ale także będzie dysponował odpowiednim planem.

Może będzie to jakiś rebeliant z Microsoftu, który poświęci swoją karierę, żeby dokonać rewolucji? Być może będzie to jednak jakiś outsider, z dostateczną ilością pasji i pieniędzy?

Plan powinien obejmować nowe praktyki tworzenia oprogramowania. Nikt nie powierza przecież budowy mostów genialnym artystom, a następnie próbuje stabilizować je przy pomocy niewykwalifikowanych pracowników. Watts Humphrey, członek Software Engineering Institute, opracował nowe sposoby zarządzania i strukturę projektowania oprogramowania faworyzujące bezpieczeństwo - Team Software Process (TSP) i Personal Software Process (PSP). Odchodzi w nich od tradycyjnego modelu regularnej armii, w której rozkazy płyną z góry do dołu, do modelu operacji specjalnych, gdzie małym grupom powierza się określone zadania i pozostawia swobodę w kwestii ich wykonania.

Doświadczenia z TSP i PSP pokazują, że ich zastosowanie pozwala zredukować liczbę błędów w oprogramowaniu co najmniej dziesięciokrotnie. Metod Humphreya próbował Microsoft. Dzięki temu udało się zmniejszyć liczbę błędów w 24 tys. linii kodu z 350 do 25. Humphrey postuluje nawet bardziej radykalne zmiany. Uważa, że informatyków powinno się szkolić na wzór lekarzy - ich edukacja powinna obejmować kompleksowy profesjonalny staż.

Ostatecznym sukcesem reformacji ma być akceptacja zasady, że indywidualne krótkoterminowe korzyści odbijają się na wspólnych korzyściach długoterminowych. Pojedyncze firmy tworzą, kupują, wdrażają oprogramowanie, żeby zyskać przewagę konkurencyjną, nawet mimo że przyczynia się to do degradacji poziomu bezpieczeństwa jako wspólnej całości. Obecnie firmy nie widzą korzyści w poprawianiu wspólnego poziomu bezpieczeństwa.

Cyfrowy lodowiec

Alternatywną reakcją na cyfrowe Pearl Harbor może być wytworzenie przekonania, że jedynym i pewnym sposobem na uniknięcie kolejnej tragedii jest zatrzymanie rozwoju oprogramowania, zamrożenie go w stanie, w jakim się znalazło. Jeśli otwartość wpędziła nas w kłopoty, to tylko jej ograniczenie może nas z tego wyciągnąć - mogą przekonywać niektórzy. Funkcje miałyby zostać wbudowane na stałe do układów sterujących. Nie można by na nich uruchamiać innych aplikacji.

Taki scenariusz - ograniczenie możliwości komputerów - jest atrakcyjny ze względu na prostotę. Z pewnością wymuszenie pewnych praktyk związanych z bezpieczeństwem zahamowałoby innowacje, ale - zdaniem ekspertów - to bardzo prawdopodobne. Wiązałoby się także z całkowitym brakiem prywatności w Internecie. Do każdego wejścia do sieci konieczna byłaby autentykacja użytkownika. Eksperci nie mają wątpliwości: pojawienie się Wielkiego Brata jest nieuniknione.

Część społeczeństwa z pewnością sprzeciwi się brakowi prywatności, postawieniu tamy nieskrępowanej innowacyjności czy ekonomicznej stagnacji. Niestety, prawdopodobnie większość zaakceptowałaby takie zmiany w obawie przed powtórką cyfrowego Pearl Harbor.


TOP 200