Zarządzanie ryzykiem w projektach informatycznych

Rynek technologii informatycznych jest dość regularnie nawiedzany przez potężne siły rynkowe, sprawiające, że nie znane nikomu firmy stają się międzynarodowymi potentatami, a uznani dostawcy przeżywają dramatyczne kryzysy finansowe.

Rynek technologii informatycznych jest dość regularnie nawiedzany przez potężne siły rynkowe, sprawiające, że nie znane nikomu firmy stają się międzynarodowymi potentatami, a uznani dostawcy przeżywają dramatyczne kryzysy finansowe.

Produkty, koncepcje, idee pojawiają się na tej arenie prawie zawsze w atmosferze przełomu, w charakterze ostatecznej odpowiedzi na wszystkie dotychczasowe problemy związane z wydajnym przetwarzaniem danych, projektowaniem, programowaniem, zapewnieniem jakości itp.

Rynek, inspirowany przez zręcznie prowadzony marketing, w sposób zupełnie nieraz nieoczekiwany wynosi na piedestał rozwiązania, które przez lata ignorował, i powraca po latach do rozwiązań, które raz odsądził już od czci i wiary.

Tornada - kto za tym stoi?

Internet, który przez lata funkcjonował w obszarze akademickiej wymiany myśli, listów, nie garnął się do biznesu informatycznego. Nagle, w sposób najzupełniej nieoczekiwany stanął w centrum uwagi dostawców korporacyjnej informatyki, jako nowe medium, zagrażające pozycji niekwestionowanych dotychczas rozwiązań (Lotus Notes, Compuserve). Internet stworzył jednocześnie zagrożenia dla tradycyjnych liderów stojących za filozofią Wintel (system operacyjny Windows, komputery z procesorem Intel), stwarzając miejsce dla takich rozwiązań, jak uniwersalny klient czy graficzny terminal internetowy.

Internet sprawił jednocześnie, że być może powrócą czasy scentralizowanych ośrodków obliczeniowych, udostępniających poprzez potężne serwery internetowe tradycyjne aplikacje, takie jak systemy F/K, kadry, płace itp.

Owe kataklizmy rynkowe są z jednej strony twórcze - udostępniają organizacjom nowe możliwości, nowy potencjał, który może być skutecznie wykorzystywany w rozwoju i budowaniu przewagi konkurencyjnej, zwiększa skuteczność i precyzję działań biznesowych, zwiększa komfort pracy ludzkiej, tworzą fortuny. Z drugiej, ta sama sytuacja skutecznie podminowuje wysiłki podejmowane w celu systematycznej informatyzacji, opartej na strategicznym planowaniu rozwoju systemów informatycznych.

Oto rozwiązania, które wczoraj stanowiły nasz strategiczny oręż, dzisiaj stają się jedynie centrum kosztów, podstawowych założeń dotyczących architektury SI nie udaje się zrealizować, radykalnie zmienia się bilans kosztów i korzyści dla projektów.

Niestety, informatyka stanowiąca dzisiaj podstawę funkcjonowania wielu organizacji jest technologią niedojrzałą, rozwijającą się poprzez przełomy. Średnio co 18 miesięcy zegar procesorów przyspiesza dwukrotnie. Tak radykalna zmiana mocy obliczeniowej sprawia, że rozwiązania, które wczoraj nie były możliwe do zrealizowania, dziś stają się komercyjnym, masowo dostępnym produktem.

Jak wiadomo, koncepcja komputera biurowego z myszką i obiektowym interfejsem graficznym powstała bardzo dawno w laboratoriach firmy Xerox (system biurowy STAR). Okazała się jednak niemożliwa do wdrożenia w skali korporacyjnej ze względu na wysokie koszty i bariery technologiczne. Nawet Apple Macintosh był rozwiązaniem w gruncie rzeczy niszowym, obsługującym sektor DTP, szkolnictwo i ambitną kadrę menedżerską. Dopiero masowa produkcja komputerów PC i sprzedaż systemu Windows oraz powszechna dostępność aplikacji biurowych, działających pod jego kontrolą, sprawiły, że graficzne systemy interakcyjne stały się normą. Efekt skali sprawił, że komputer PC z systemem Windows i aplikacjami biurowymi jest dziś nie tylko tani, lecz również poważnie traktowany przez dostawców wszelkiego rodzaju technologii komplementarnych - od baz danych, poprzez narzędzia, po oprogramowanie dla artystów.

Błyskawiczny rozwój sprzętu często niweczy wysiłki poświęcane na opracowanie inteligentnych algorytmów, nastawionych na optymalizację wykorzystania zasobów i przyspieszenie wykonania programów. Dziś, kiedy elektronika przekracza kolejny próg upakowania elementów procesora, ciągle królują rozwiązania oparte na algorytmach „brutalnych” (brute force), ale dobrze wspomaganych sprzętowo.

Być może już wkrótce technologia komputerów masowo równoległych (może opartych na układach organicznych) sprawi, że realne stanie się przetwarzanie quasi-niedeterministyczne. Ogromna liczba jednostek obliczeniowych będzie skutecznie symulować działanie niedeterministycznej maszyny Turinga i uzyskamy w ten sposób „sprzętowe” wspomaganie rozwiązywania problemów NP-zupełnych.