Rewiry informatyki

Microframe vel mainframe (I)

Microframe vel mainframe (I)

Analizując poczynania w dużych projektach informatycznych, dochodzę do dwóch wniosków:

1. komputery mainframe stosowane są niechętnie

2. przetwarzanie rozproszone realizowane jest w trybie izolowanym.

Systemy informatyczne, obejmujące geograficznie całą przestrzeń naszego kraju i realizowane w układzie: centrala - oddziały, nie integrują wszystkich szczebli struktury. Zazwyczaj w oddziałach gromadzi się i przetwarza na niezależnych instalacjach komputerowych dane przynależące terytorialnie do obszaru gminy lub województwa, po czym dane te przesyłane są wsadowo, często przy użyciu tradycyjnych nośników, do centrali, gdzie przeprowadza się okresowo ich grupowanie.

Być może nie ma w tym wszystkim niczego złego, oprócz przejmowania zachowawczego modelu sprzed ponad dziesięciu lat, gdy dokładnie tak samo realizowane były procedury przetwarzania rozproszonego. Drugim zjawiskiem negatywnym jest kompletny brak integracji. Jeżeli bowiem system informatyczny dotyczy ewidencji (osób, samochodów), wówczas fizyczna zmiana miejsca pobytu obiektu wymaga dokonania wpisu (popartego bogatą dokumentacją papierową) w systemie obsługującym terytorium jego nowej lokalizacji. Jedna baza danych „nie wie” nic o zawartości innej. Są to dosyć poważne mankamenty, utwierdzające działania biurokratyczne i ogólnie utrudniające życie - użytkownikom systemu i obiektom do nich przypisanym.

Za odpowiednio wysoki poziom techniki przetwarzania rozproszonego zwykło się uważać stosowanie architektury klient-serwer, a szczytem osiągnięć jest połączenie grona serwerów z systemami Windows NT jako front-end z serwerem Unixa jako back-end. Oczywiście, nie jest to technika zacofana, ale nie zawsze też spełnia wymagania wydajności przy dużej liczbie użytkowników. Problemy w dalszym ciągu stanowią także połączenia telekomunikacyjne, niezbędne do implementacji zintegrowanego w całej skali przedsięwzięcia, bez względu na technikę jego realizacji - czy to poprzez model centralny, czy rozproszony. Nie sposób pominąć ich znaczenia w logicznie spójnym modelu rozproszonym (nie izolowanym), gdy musi być zapewniona płynność replikacji danych, obojętne czy replikacja odbywa się synchronicznie, czy asynchronicznie.

Duża popularność rozwiązań unixowych i opracowanych dla nich systemów zarządzania bazami danych w zasadzie wyznacza granice implementacyjne. Zarówno Sun, jak i IBM produkują komputery o dużej wydajności dla systemów Unix - mistrz szachowy przegrał przecież z klastrowym tworem 32 maszyn RS/6000, reprezentujących łączną wydajność 256 procesorów, pozwalających na przeanalizowanie 200 mln sytuacji w ciągu 1 sekundy.

A dlaczego serwerem centralnym nie miałby być komputer mainframe? Czy technologia IBM - S/390 Parallel Sysplex - umożliwiająca połączenie klastrowe 32 serwerów serii S/390 (wieloprocesorowych SMP), o wydajności wystarczającej do obsługi 150 tys. jednoczesnych użytkowników, to za mało? A może szkopuł tkwi nie tylko w wydajności? O czym - za tydzień.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200