Poniosą i wilka?

Znane ludowe przysłowie, którego część można znaleźć w tytule niniejszego tekstu, jest nie tylko przestrogą, ale również zapowiedzią jej niechybnego spełnienia się. Czy przysłowie to można odnieść też do sytuacji, w jakiej - z punktu widzenia zarządzania własnym podwórkiem - mogą wkrótce znaleźć się liczni informatycy? A jeżeli mogą się znaleźć, to - należałoby dodać - nie bez własnego w tym kierunku wysiłku...

Znane ludowe przysłowie, którego część można znaleźć w tytule niniejszego tekstu, jest nie tylko przestrogą, ale również zapowiedzią jej niechybnego spełnienia się. Czy przysłowie to można odnieść też do sytuacji, w jakiej - z punktu widzenia zarządzania własnym podwórkiem - mogą wkrótce znaleźć się liczni informatycy? A jeżeli mogą się znaleźć, to - należałoby dodać - nie bez własnego w tym kierunku wysiłku...

Miłe początki

Chodzi o to, że przez lata całe zajmowaliśmy się narzucaniem uroków automatyzacji innym, a sami z bezpiecznej odległości obserwowaliśmy, jak w wyniku tamci albo w ogóle tracili pracę, albo zmagali się z niedociągnięciami naszych wytworów. Od pewnego czasu jednak sami mamy poważne kłopoty ze złożonością tego, co tak ochoczo wymyślamy, i co zmusza nas do działania według zasady "medice, cura te ipsum".

Gdy zastanowić się jednak, od kiedy trwa ten pewien czas, to okazuje się, że jego początki sięgają zarania uprawianej przez nas dziedziny.

Za bardziej niż klasyczny można uznać tu przykład powstania antenata systemu operacyjnego Unix. Stworzono go przecież bez myśli o powszechnym, komercyjnym stosowaniu, a tylko dla własnej wygody samych twórców, którym miał ułatwiać korzystanie z komputera. Ułatwienie zaś polegało na uwolnieniu programów komputerowych od bycia za każdym razem i programem, i systemem operacyjnym.

Podobne były dzieje wcześniejszych niż Unix systemów operacyjnych, których powstanie było wynikiem procesu wyodrębnienia z programów tej ich części, która w zasadzie była w nich wspólna i która zajmowała się ułatwianiem samego korzystania z komputera. Nie można jednocześnie zapominać, że korzystanie to było wówczas również uwarunkowane stanem technicznym samego komputera. Stan ten bywał często przyczyną problemów, których rozwiązywaniem zajmował się specjalny, będący stale pod ręką, kilkuosobowy personel techniczny. Specjalistyczne szkolenie takiego specjalisty trwało ponad pół roku i było uzupełniane kilkumiesięczną praktyką.

Czyniło to informatykę dziedziną kosztowną, a jednocześnie przydawało jej status sztuki magicznej, dostępnej i zrozumiałej jedynie dla nielicznych wtajemniczonych. Stan ten bardzo szybko przeobraził się w barierę rozwoju, której demontażem zajęli się m.in. sami informatycy. Tak czy inaczej jednak informatyka nadal pozostawała w izolacji, kontaktując się z otoczeniem przy pobieraniu danych i zwracaniu wyników ich przetwarzania. Stan ten trwał do pojawienia się najpierw minikomputerów, a potem - komputera osobistego.

Otwarcie

Komputer osobisty, w wyniku wielu upraszczających założeń konstrukcyjnych, wyprowadził informatykę z jej świątyń, jakimi były zamknięte ośrodki obliczeniowe, ale jednocześnie - z tych samych powodów - stał się źródłem nowych, zaskakujących problemów. Swoboda manipulowania wszystkimi składnikami oprogramowania tych komputerów, systemu operacyjnego nie wyłączając, pozwalała ich użytkownikom na podejmowanie prób i eksperymentów, większość z których kończyła się stanem wymagającym fachowej interwencji. Pociągało to spore koszty, w tym również pośrednie, czego wynikiem było ukucie pojęcia "całkowitych kosztów stosowania" (TCO - Total Cost of Ownership).

Brak kontroli nad rozproszonym, pozostającym poza kontrolą, sprzętem, jego poszczególnymi składnikami i oprogramowaniem doprowadzał do chaosu, strat i ginięcia danych. Rozwój zaś technik teleinformatycznych powodował, że wszelkie potknięcia służb informatycznych stawały się natychmiast widoczne dla korzystających, którzy doświadczali licznych przerw w działaniu i dostępie do informacji, które - dodatkowo - nie zawsze okazywały się poprawne.

Zmieniający się wolno model działania służb informatycznych ostatecznie został pognębiony wraz z eliminacją wszelkich pośredników między właściwym użytkownikiem a samym systemem informatycznym, co nastąpiło w wyniku rozwoju i upowszechnienia technik sieciowych.

Na oczach wszystkich

Stosowane w takich warunkach systemy informatyczne, rozumiane łącznie jako kombinacja zasobów danych, elementów sprzętowych, programowych i telekomunikacyjnych, musiały nagle sprostać wymogowi nieprzerwanej dostępności, bez względu na dzień tygodnia i jego porę. Z drugiej strony należało okiełznać w jakiś sposób wszystkich tych własnych pracowników, którzy korzystali z komputerów osobistych, uniemożliwiając im towarzyszącą temu nadmierną dowolność.

To ostatnie stało się powodem ostrych nieraz i do końca nierozwiązywalnych sprzeczności między właściwościami tych urządzeń (rozumiejąc przez to również ich systemy operacyjne) a wymogami rygorów dającego się kontrolować korzystania z nich. Konieczność stosowania tych ostatnich wzmacniała pojawianie się i rozprzestrzenianie za pośrednictwem sieci teleinformatycznych licznych fragmentów kodu programowego mających powodować różnego rodzaju, nieraz bardzo dotkliwe i kosztowne, szkody.

W efekcie, w różnego rodzaju organizacjach, wykształcił się model korzystania, w którym do minimum ograniczono możliwości wpływania użytkowników na podstawowe właściwości używanych przez nich komputerów, poddając je szeroko zakrojonej uniformizacji, zapuszczającej się aż po wymuszanie stosowania narzuconych tzw. wygaszaczy ekranów i ich tła.

Ponieważ skuteczne wdrożenie i utrzymanie takiego modelu - a także stałe nadzorowanie jego działania - było wykonalne jedynie drogą szeroko zakrojonej automatyzacji, w wyniku powstały liczne systemy informatyczne tylko do tego przeznaczone.

Z drugiej strony, tam gdzie taka potrzeba występuje, konieczne jest zapewnienie szybkiej interwencji fachowca. Aby jednak znać rozmiary potrzeb w tym zakresie i jednocześnie kontrolować sytuację, wprowadza się sformalizowane drogi zgłaszania problemów, skąd są one przekazywane do obsługi i gdzie kontroluje się jej wykonanie. W praktyce okazuje się, że zdecydowana większość tego rodzaju problemów nie wymaga szczególnej wiedzy specjalistycznej, pozwalając powierzać ich rozwiązywanie niżej płatnym pracownikom, nielicznych wybitnych rezerwując na przypadki naprawdę trudne.

W zakresie tego sprzętu, który wykonuje zadania szczególnie krytyczne, łatwiej było uzyskać wyższą niezawodność poprzez ostre rygory produkcyjne, niż przez mnożenie personelu obsługi technicznej. Niska zaś cena masowo wytwarzanych składników (takich jak np. zasilacze, napędy dyskowe czy całe nawet jednostki) pozwoliła niewielkim kosztem zwiększyć ich liczbę ponad bieżące potrzeby, stwarzając rezerwę na wypadek awarii. Przy odpowiedniej organizacji rozwiązania takie zapewniają właściwy skutek, czyli nieprzerwane działanie.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200