Microframe vel mainframe (II)

Ogromna wydajność komputerów nie daje poczucia pełni szczęścia w dużym przedsięwzięciu informatycznym. Obecnie liczy się otwartość systemu, zwłaszcza pod kątem architektury klient-serwer, dostępu poprzez Internet (Java) i takiż interfejs do baz danych (JDBC - Java Database Connectivity).

Ogromna wydajność komputerów nie daje poczucia pełni szczęścia w dużym przedsięwzięciu informatycznym. Obecnie liczy się otwartość systemu, zwłaszcza pod kątem architektury klient-serwer, dostępu poprzez Internet (Java) i takiż interfejs do baz danych (JDBC - Java Database Connectivity).

Maszyny mainframe kojarzone są wciąż z topornymi urządzeniami do masowej obsługi wielu użytkowników o ściśle zdefiniowanej charakterystyce działań, ujętej pod postacią monitora transakcji w mało atrakcyjnym wydaniu tekstowym. Rzeczywiście ich wydajność w przetwarzaniu OLTP, jak i przetwarzaniu wsadowym jest nieporównywalna z innymi komputerami. Niemniej należy dostrzec, że poglądy z przeszłości pokutują zupełnie bezpodstawnie w dniu dzisiejszym. Jeżeli weźmiemy pod uwagę najnowsze produkty systemowe i narzędziowe firmy IBM, to zauważymy, jak daleką przeszło metamorfozę środowisko dużych komputerów. Ostatnia edycja systemu zarządzania bazami danych DB2 v. 5.0 jest przykładem uelastycznienia i polityki otwartości w odseparowanym środowisku dużych systemów.

Dając możliwość otwartej komunikacji wieloplatformowej i równoległe przetwarzanie zapytań, uczyniono środowisko pracy rzeczywiście otwartym, dostosowanym zarówno do przetwarzania transakcyjnego, jak i analitycznego. Ponadto DB2 może pracować w środowisku różnych systemów IBM oraz Windows NT/95, HP-UX, Sun Solaris, oferując architekturę klient-serwer. Umożliwiono tym samym konfigurowanie złożonych instalacji heterogenicznych, w których jako komputery back-end stosowane są maszyny typu mainframe, natomiast front-end stanowią serwery klasy midrange, operujące na płaszczyźnie jednej z odmian systemów Unix lub Windows NT.

Mainframe'y zamieniły się w microframe'y i taka też nazwa proponowana jest przez producenta - dotychczasowa kosztowna technologia bipolarna została wyparta przez tańszą technologię CMOS. Pokonano problemy szybkości procesorów - obecnie już odpowiednio wydajnych, uporano się też z rozmiarami sprzętu.

Dlaczego w moich ostatnich dwóch felietonach tak uporczywie zająłem się problemami natury technicznej? Z prostego powodu - aby pokrótce przybliżyć tendencje kształtujące się w świecie technologii informatycznych, dedykowanych dużym przedsięwzięciom. Rozpoczynając projekt, mający za kilka lat ujrzeć światło dzienne w wersji eksploatacyjnej, nie sposób opierać się na technologiach przestarzałych i nie zawsze optymalnych. Jeżeli firma-wykonawca upiera się przy realizacji zadania określonymi metodami i narzędziami tylko dlatego, że nie potrafi lub (co gorsza!) nie wie o istnieniu i możliwościach innych, małe są szanse powodzenia. I jeszcze jedno: duże komputery mają tę wadę, że są drogie i nie można ich przed czasem zainstalować w urzędach, wmawiając, iż pierwszy etap komputeryzacji został wykonany.


TOP 200