Poniosą i wilka?

Nie ulega żadnej wątpliwości, że automatyzacja, która pod różnymi względami objęła samą infrastrukturę informatyczną, musiała zmniejszyć liczbę zatrudnionych przy jej obsłudze informatyków. Podobny efekt daje się zaobserwować również w dziedzinie tworzenia oprogramowania, gdzie jest to również wynikiem czy to automatyzacji związanych z tym czynności, czy też celowego ograniczania swobody twórczej.

W zakresie infrastruktury jednak istotną rolę odgrywa także zjawisko zlecania usług wyspecjalizowanym organizacjom zewnętrznym. Zatrudnieni tam specjaliści, obsługując jednocześnie liczne organizacje, szybciej doskonalą się zawodowo - zarówno teoretycznie, jak i praktycznie. Są jednocześnie bardziej wydajni, gdyż działają w ramach dobrze na ogół zorganizowanych jednostek specjalistycznych, korzystając z dostępu na odległość do obsługiwanych środowisk.

W efekcie zarządzanie i obsługa techniczna, administracyjna i operatorska rozległej infrastruktury sprzętowo-programowej, liczącej np. kilkanaście serwerów różnej mocy oraz kilkaset komputerów osobistych, może być z powodzeniem wykonywana przez niewielką (kilka do kilkunastu osób) grupę specjalistów. Stwierdzenie to jest jednak prawdziwe tylko w odniesieniu do bardzo jednorodnych środowisk, takich jakie występują np. przy stosowaniu wyłącznie gotowych pakietów programowych, pochodzących z jednego źródła, często - i czasem na wyrost - określanych mianem zintegrowanych. W bardzo dużych organizacjach, gdzie z obiektywnych przyczyn występuje złożone, niejednorodne środowisko sprzętowo-programowe, liczba potrzebnych specjalistów może być nawet kilka razy większa.

Wynika to z tego, że - jak się ocenia - takie złożone infrastruktury informatyczne, niezależnie od branży, w której występują, blisko połowę swych zasobów zużywają na umożliwianie współdziałania poszczególnych systemów tworzących taką infrastrukturę, a całość związanych z tym działań i zabiegów określana jest mianem integracji.

Na usprawiedliwienie trzeba dodać, że złożoność tej infrastruktury osiągnęła ileś tam współpracujących poziomów programów i obejmuje liczne, w dodatku rozproszone terytorialnie, jednostki sprzętowe. Od całości oczekuje się ciągłego, nieprzerwanego i niezakłóconego działania. Ponieważ z zadaniem tym nie mogą sobie skutecznie poradzić dostępne, specjalistyczne narzędzia informatyczne i rozwiązania organizacyjne, w ramach których się je stosuje, poszukuje się zupełnie czegoś nowego, jak zwykle rozglądając się za wzorami w otaczającym nas świecie.

Nowy, wspanialszy świat

To zaś prowadzi bezpośrednio do koncepcji tzw. autonomicznych obliczeń, w ramach której cała infrastruktura informatyczna wraz ze wszystkimi swymi składnikami sama dba o swój stan. Zniknąć miałyby wtedy problemy np. z konfigurowaniem, bo dokonywane byłoby ono samoczynnie, w zależności od potrzeb.

Podobnie, automatycznie naprawiane byłyby uszkodzenia. Infrastruktura sama wykrywałaby zagrożenia dla bezpieczeństwa siebie samej i obsługiwanych danych i sama znajdowałaby bądź tworzyła środki przeciwdziałania im.

Na koniec - ta sama infrastruktura informatyczna, analizując własne poczynania i korzystających z niej użytkowników, zarządzałaby nimi i optymalizowała je.

Nie ulega wątpliwości, że przedstawiony obraz jest pewną analogią do świata biologicznego, w którym procesy ewolucyjne wykształciły wiele takich mechanizmów. Nie oznacza to jednak, że są one wolne od wad i ułomności, a ich działanie zawsze przynosi pożądany skutek i osiąga zamierzony cel.

Gdy sięgnąć po analogię z dopiero co przywołanymi nakładami sił i środków pochłanianymi przez pozornie mało skuteczne procesy integrowania systemów informatycznych okazuje się, że świat biologiczny również wymaga podobnej nadmiarowości niemal wszystkiego. Tam gdzie jej braknie (np. jedno serce), mamy do czynienia z sytuacjami krańcowo krytycznymi, na które, mimo wysiłków, nie znajdujemy sposobu. A nawet, jeżeli udaje nam się zaradzić przypadkom ostatecznym, to nie odbywa się to bez poważnych zakłóceń w funkcjonowaniu dotkniętych tym organizmów i pozostałości w postaci trwałych upośledzeń różnego rodzaju.

Wracając do sprawy losu informatyków - w przedstawionym kontekście możliwe są dwa scenariusze. Nie jest to jednak kwestia typu czarne-białe, lecz przypadek, gdzie wydaje się, że dwa rodzaje rozwiązań będą współistnieć, a na granicy między nimi wykształcą się różne formy pośrednie.

Będziemy więc mieć z jednej strony ważne systemy o licznych cechach charakterystycznych dla świata organizmów żywych, ceną za uzyskanie czego będzie spora nadmiarowość.

Ta ostatnia cecha będzie dotyczyć również obsługi czysto ludzkiej - ważność tych systemów przesądzi o tym, że z pełną świadomością skutków do ich obsługi przeznaczać się będzie więcej specjalistów, niżby to wynikało z prostego rachunku potrzeb. Mowa jest jednak o specjalistach naprawdę wysokiego lotu, którzy - niezbyt liczni - stanowić będą swoistą elitę o różnych specjalnościach z zakresu informatyki i jej okolic.

Z drugiej strony będzie istniał świat systemów mniej i mało krytycznych, w naturalny sposób aspirujący do cech i właściwości charakterystycznych dla systemów, które nazwaliśmy ważnymi. Z braku jednak zarówno realnych potrzeb, jak i środków aspiracje te pozostaną w większości niespełnione. Nie oznacza to jednak, że infrastruktura informatyczna w tym świecie będzie oznaczała się szczególną prostotą. Względnie prosta będzie jej część wymagająca obsługi ludzkiej, co ograniczy się do rutynowych, ale jednak specjalistycznych zabiegów. Dalszy ciąg zapewnią systemy "ważne".

Nawiązując do tytułowego przysłowia o wilku, co to nosił sam, aż przyszedł moment, że poniesiono i jego, wydaje się, że przyszłość informatyki, a z nią i informatyków, nie jest ani czarna, ani szara nawet. Uwalniając się od czynności w rodzaju poszukiwania uszkodzonego tranzystora i automatyzując kolejne poziomy tworzonej i obsługiwanej infrastruktury, informatycy w żadnej mierze nie dokonują tego, co anglosaskie przysłowie określa jako "strzelanie do własnej stopy".

Paradoksalnie i analogicznie do procesów mających miejsce np. w dziedzinie motoryzacji, występować będzie zjawisko przechodzenia jakości w ilość, kiedy to metody masowego wytwarzania ze stałą, wysoką jakością produktów, powodują ich szeroką dostępność. Powszechność stosowania zaś owocuje znacznym zapotrzebowaniem na względnie proste, ale za to liczne, czynności regulacyjne i czasem - naprawcze.

Dla informatyków oczekujących ambitnych i trudnych zadań, takie, niezbyt złożone czynności, mogą być powodem do zawodowych frustracji, nigdy jednak do braku zajęcia. Nawet gdy uwzględnić w rachunku działania przyuczonych amatorów.


TOP 200