Spirala chaosu

Silne i liczne kontrowersje wzbudzają próby łączenia funkcji systemów operacyjnych z oprogramowaniem użytkowym. Rozwiązanie, w którym istnienie takiego systemu stałoby się niedostrzegalne dla użytkownika, byłoby bez wątpienia najkorzystniejsze, czyniłoby jednak z komputera urządzenie specjalistyczne, o ściśle określonych i ograniczonych możliwościach. Dopóki komputer osobisty ma być urządzeniem uniwersalnym, umożliwiającym realizację wielu odmiennych funkcji i stosowanie dowolnego, przeznaczonego dlań oprogramowania, dopóty ścisłe rozgraniczenie między systemem operacyjnym a resztą oprogramowania wydaje się konieczne.

Odmienność systemów operacyjnych stosowanych na różnych komputerach stała się z czasem głównym czynnikiem wzmacniającym niemal monopolistyczną pozycję producentów, czyniąc każdą zmianę pod tym względem przedsięwzięciem niezwykle kosztownym, czasochłonnym i ryzykownym. Jej wynikiem było i tak tylko wyrwanie się spod jednego monopolu po to, by natychmiast stać się ofiarą innego.

Wyjściem z tej, niekorzystnej dla użytkowników sytuacji miała stać się realizacja idei tzw. systemów otwartych. Idea ta, początkowo budowana wokół systemu operacyjnego Unix, a później ograniczona do znormalizowanych zasad współpracy systemów, nigdy nie została w pełni zrealizowana, stanowiła jednak istotny czynnik porządkujący i nadal jest punktem odniesienia przy ocenie możliwości współdziałania komputerów i wykonywanych przez nie programów.

Próbując dostrzec prawidłowość w rozwoju systemów operacyjnych, zauważa się przede wszystkim rosnący zakres zastępowania nimi programów użytkowych w wykonywaniu złożonych funkcji i działań. Powstał w związku z tym wyraźny podział czynności i wyodrębniły się odpowiednie grupy specjalistów. Sytuacja ta uległa odwróceniu w przypadku komputerów osobistych, gdzie pewien zakres znajomości arkanów działania komputera i jego systemu operacyjnego stał się warunkiem korzystania z tego urządzenia i przedmiotem nauczania w szkołach i na kursach specjalistycz-nych. 4)

Stosunkowo niedawno, w wyniku wysiłku wielu osób współpracujących za pośrednictwem Internetu, powstał system operacyjny Linux. 5)

Zyskał on sporą popularność głównie dzięki temu, że można go uzyskać bezpłatnie. Wokół tego systemu rozwinęła się inicjatywa o nazwie open source, polegająca na bezpłatnej wymianie wersji źródłowych różnych fragmentów oprogramowania. Podstawowa zaleta tego oprogramowania i systemu Linux - bezpłatna dostępność - jest jednocześnie jego podstawową wadą: w przypadku krytycznych zastosowań są to konstrukcje amatorskie, za które nikt nie ponosi odpowiedzialności. Trudne do określenia są granice ich możliwości i zakres działania. Ich zastosowanie wymaga poszerzonego zakresu testów, co pociąga dodatkowe nakłady i wydłuża czas upływający do momentu rozpoczęcia eksploatacji. W opinii zwolenników jednak system ten stanie się z czasem częścią oprogramowania nieodłącznie kojarzonego z działaniem Internetu i niezbędnego do pełnego korzystania z jego możliwości przez indywidualnych użytkowników.

Informatyka przełomu lat 50. i 60. potrafiła jedynie rejestrować i agregować dane, czyniąc to z dość dużym opóźnieniem w odniesieniu do momentu ich powstania. W połowie lat 60. zaistniały warunki do podjęcia prób bieżącej rejestracji i udostępniania danych. Obsługę wielu stanowisk pracy, dysponujących bezpośrednim połączeniem z komputerem i wykonujących podobne bądź identyczne działania, prowadzono wówczas na dwa sposoby: albo z każdego stanowiska uruchamiano odrębny program, albo wszystkie stanowiska obsługiwano przy użyciu jednego, wspólnego programu, złożonego z modułów specjalizujących się w dających się wyodrębnić czynnościach.

To drugie rozwiązanie, rozwijając się, doprowadziło do powstania pod koniec lat 60. tzw. monitorów transakcji - programów, w których poszczególne czynności inicjowane przez działających na bieżąco użytkowników dzielono na elementarne fragmenty, z których część była wspólna dla różnych takich czynności. Monitory te wykonywały także wszelkie działania na zasobach danych. Efektem była poprawa wykorzystania zasobów komputera, względna łatwość i wyższe bezpieczeństwo wprowadzania zmian, a także wyeliminowanie błędów i łatwość rozbudowy.

Monitory transakcji są wykorzystywane do dziś. Z powodzeniem zastosowano je również do obsługi współdziałania różnych systemów komputerowych, przedstawiając użytkownikowi jednocześnie dane pochodzące z wielu z nich.

Dzięki zastosowaniu monitorów transakcji możliwe stało się także oddzielenie od siebie działań wykonywanych na zasobach danych (zapis, odczyt, aktualizacja) od czynności ich przetwarzania i prowadzenia dialogu z użytkownikiem. Na komputerach mainframe rozwiązania takie stosowano już w latach 70. Koncepcję tę "odkryto" ponownie na początku lat 90., po niewielkich zmianach nadając jej nazwę klient/serwer.

Podczas prac prowadzonych w związku z problemem roku 2000 okazało się, że na świecie powstało ok. 2 tys. języków programowania, z których prawie 500 jest w użyciu, a przeciętny program użytkowy składa się z modułów napisanych z kilku z nich. Według źródeł amerykańskich z tego samego okresu, gdy uwzględnić wielkość programów liczoną w punktach funkcyjnych, 36% wszystkich programów stosowanych w USA napisano w języku Cobol, 15% w C i C++ (odpowiednio: 9% i 6%), a aż 20% zakwalifikowano do kategorii "Inne".


TOP 200