Nadchodzi XXI wiek

Analitycy zapowiadają radykalne zmiany w infrastrukturze informatycznej przedsiębiorstw.

Analitycy zapowiadają radykalne zmiany w infrastrukturze informatycznej przedsiębiorstw.

W miarę jak zbliżamy się do roku 2000, proponowana przez Suna idea, że „dopiero sieć to komputer", nabiera coraz bardziej realnych kształtów. Nie obywa się to bez dominującego udziału tej firmy w nowym sieciowo-centrycznym modelu przetwarzania.

Najbardziej radykalne zmiany, w ciągu dwóch ostatnich lat, pojawiły się w technologiach internetowych. Jak szybkie one były, może świadczyć fakt, że nawet tak wizjonerska firma jak Microsoft z trudem nadąża za rozwojem Internetu.

Pojawienie się nowej technologii, a jej powszechna akceptacja to dwie zupełnie różne sprawy. Zwykle musi minąć ok. dwóch lat, aby jakaś technologia się przyjęła i weszła do użytku w przedsiębiorstwach. Jeżeli więc chcemy przewidzieć technologie jakie będą stosowane w infrastrukturze informacyjnej przedsiębiorstw w roku 2000, wystarczy uważnie przyjrzeć się najnowszej ofercie dużych dostawców sprzętu i oprogramowania i wskazać problemy wymagające rozwiązania.

Wydaje się, że obecnie najważniejszymi problemami są: rosnące obciążenie sieci korporacyjnych, ogromne bazy danych zmagazynowane na przestarzałym sprzęcie, wielorakość języków i platform sprzętowo-systemowych tworzących infrastrukturę informatyczną oraz coraz bardziej skomplikowane aplikacje. Ciągle aktualne są problemy związane z wydajnością programistów i konieczność obniżania kosztów obsługi informatycznej firmy.

Java dla przedsiębiorstwa

Właściwości funkcjonalne nowej wersji Java Development Kit 1.1 predestynują język Java do tworzenia aplikacji dla przedsiębiorstwa. Polepszone bezpieczeństwo, architektura obiektowa JavaBeans pozwalająca na tworzenie aplikacji przez składanie ich z gotowych komponentów, specyfikacja JDBC do łączenia się z bazami danych na używanych od dawna komputerach oraz nowa biblioteka AWT do tworzenia interfejsu użytkowego to tylko niektóre z cech JDK 1.1.

Według analiz Forrester Research, ponad 62% największych korporacji amerykańskich już korzysta z języka Java do pisania aplikacji, a 42% twierdzi, że w ciągu roku Java stanie się ich strategicznym narzędziem aplikacyjnym.

Największa firma informatyczna świata, tj. IBM, ściśle wiąże nowe produkty i projekty z językiem Java. Projekt o nazwie San Francisco jest ambitnym planem stworzenia uniwersalnej platformy obiektowej do szybkiego składania aplikacji z obiektów usytuowanych w hierarchicznej strukturze komponentów o coraz większym stopniu skomplikowania. Obiekty do projektu San Francisco są opracowywane przez ponad 200 firm współpracujących z zespołem specjalistów z IBM. Zamiast zajmować się aspektami systemowymi wielu platform komputerowych, twórcy projektu przenieśli go w całości do środowiska Java. Inne projekty IBM związane z Java to interfejs do bazy danych DB2, komunikacja obiektowa, środowiska do opracowania aplikacji itp. IBM zamierza stosować język Java do wszystkich nowych projektów informatycznych. Także Lotus, zależny od IBM, posługuje się tym językiem podczas opracowywania nowej wersji swego podstawowego produktu - Notes.

Java pozwala rozwiązać wiele problemów dotyczących niejednorodności stosowanych w firmie platform sprzętowych i systemowych. Raz napisana aplikacja może być uruchamiania bez żadnych zmian na każdej z dawnych i nowych platform, gdyż obecnie już na praktycznie każdym sprzęcie działa maszyna wirtualna Java.

Podobne problemy próbuje rozwiązywać Microsoft za pomocą swej technologii ActiveX, odgrywającej coraz większą rolę na PC użytkownika. Można się spodziewać, że w przemyśle informatycznym nastąpi ostry podział na firmy wspierające rozwiązania techniczne Microsoftu i opierające rozwój na Javie. Obecnie już widać, że firmy sprzętowe, które do tej pory nie zajmowały się na poważnie komputerami PC (Sun, IBM, HP), zdążają w kierunku rozwiązań korzystających z Javy. W takim samym kierunku zmierzają najwięksi producenci .

Co na biurko?

Java wywrze równie duży wpływ na komputery dla użytkownika końcowego, jak na sieci korporacyjne. W ciągu ostatniego roku pojawiła się nowa rodzina „sprzętu powszechnego użytku" - komputery sieciowe NC. Wiele firm oferuje specjalistyczne produkty przystosowane do uruchamiania przeglądarek Web, aplikacji Java i (czasami) także typowych aplikacji biurowych z serwera Windows NT. Firma Forrester Research badając rozpowszechnianie się technologii informatycznych przewiduje, że w 1998 r. na świecie rynek NC wyniesie 1,5 mld USD i będzie stale się rozwijał, konkurując skutecznie z rynkiem PC.

Specjaliści twierdzą, że Java i przetwarzanie sieciowe z zastosowaniem NC łączą walory dwóch najbardziej udanych modeli przetwarzania: bezpieczeństwo, niezawodność i wydajność mainframe’a oraz lokalną moc obliczeniową PC na biurku użytkownika.

Wszyscy analitycy zgadzają się co do tego, że NC zastąpi miliony prostych, nieinteligentnych terminali. Przejście na korporacyjną sieć typu intranet umożliwi dostarczenie użytkownikowi końcowemu potrzebnych mu możliwości przetwarzania w NC znacznie mniejszym kosztem niż przez dostarczenie mu PC. Ponadto informatyk korporacyjny ma lepsze możliwości zarządzania aplikacjami, systemem i komputerami użytkownika.

Obecnie wiele PC używanych do spełniania jednej czynności (wprowadzanie danych, rezerwacja hotelowa) można z powodzeniem zastąpić NC.

Największe problemy z NC ujawnią się zapewne dopiero wtedy, gdy komputery te będą używane masowo. Z tego powodu Sun zainstalował u siebie ponad 3 tys. komputerów NC, przenosząc do środowiska sieciowego i języka Java większość używanych w firmie aplikacji. oferuje zestaw aplikacji biurowych zbliżonych do Microsoft Office, napisanych w Javie.

Java znajduje zastosowanie także w innych urządzeniach, które można podłączyć do sieci. Pojawiają się nowe rodzaje urządzeń wyposażonych w moc obliczeniową - pagery, telefony komórkowe, urządzenia do kontroli ruchu pojazdów, nawigacji satelitarnej - również na naszym rynku dostępne są już telefony komórkowe Nokia, umożliwiające bezpośrednie podłączenie do Internetu.

Podstawą jest serwer

Już ponad 20 lat serwery unixowe w wydajności i zastosowaniach próbują dorównać dużym komputerom (mainframe). Te ostatnie nie oddają im pola w specjalizowanych centrach obliczeniowych i hurtowniach danych, choć przewaga cenowa serwerów unixowych doprowadziła do ich dominacji na rynku obliczeń technicznych, graficznych i w obsłudze baz danych.

Przejście na 64-bitową technologię procesorów oznacza zwiększenie przewagi sprzętu unixowego nad innymi technologiami w zakresie obsługi dużych masywów danych i umożliwia uzyskanie bardzo dużej wydajności transakcyjnej. Obecnie tylko Digital ma w pełni opanowaną technologię 64-bitową. Unixowe serwery 64-bitowe oferują także Sun i IBM, ale żaden z tych producentów nie ma w pełni 64-bitowego systemu operacyjnego. Oczekuje się, że w roku 2000 każdy producent systemów unixowych będzie oferował systemy 64-bitowe. Także Microsoft planuje pod koniec wieku oferować systemy 64-bitowe na sprzęcie Intela.

IBM ma w ofercie niszowe 64-bitowe systemy AS/400, przeznaczone do przetwarzania biznesowego, konkurujące skutecznie z własnymi produktami IBM (RS/6000 i duże komputery S/390). Nie są one jednak postrzegane jako konkurencja dla systemów unixowych w zakresie obsługi baz danych i przetwarzania transakcyjnego, mimo że ich wydajność często przewyższa konkurencyjne oferty unixowe. Wynika to jednak ze specyficznego przywiązania użytkowników do „otwartości" systemu, tj. możliwości przenoszenia aplikacji i systemów zarządzania bazami danych. AS/400 ma bowiem wbudowaną bazę danych DB2/400 zgodną z innymi bazami IBM, natomiast nie ma w nim możliwości (ani potrzeby) instalowania innych systemów baz danych.

Wydajność to główne zmartwienie producentów serwerów. Od sprzętu wymaga się obsługi coraz większej liczby użytkowników i coraz szybszych sieci. Mniej więcej co trzy lata pojawia się nowa generacja serwerów o wydajności skokowo większej od poprzedniej generacji. Analitycy przewidują, że kolejna pojawi się nie wcześniej niż w roku 1999, gdyż producenci muszą zamortyzować nakłady na produkty z obecnej oferty.

W związku z coraz szerszym używaniem serwerów unixowych do obsługi węzłów Web wymaga się od nich wysokiej niezawodności i pracy przez 24 godz., 7 dni w tygodniu. Stwarza to nowe wymagania w zakresie łatwości użycia i administrowania systemem. Oczekuje się, że przed rokiem 2000 pojawią się serwery nie wymagające obsługi administracyjnej (zero administration).

Mainframe nadal użyteczny

Producenci dużych komputerów (IBM, Amdahl, Fujitsu) promują je obecnie jako tzw. superserwery, zajmujące się obsługą sieci korporacyjnej firmy, bezpiecznym przechowywaniem danych oraz obsługą napisanych dawno, ale nadal sprawnie działających w wielu przedsiębiorstwach. Taniej jest kupić nową generację mainframe’a niż przenosić udane aplikacje i dane z nią związane na zupełnie inny sprzęt.

Ocenia się, że nadal połowa danych biznesowych świata jest obsługiwana przez sprzęt mainframe’owy zgodny z produktami IBM lub produkowany przez tę firmę.

Ostrą cezurą na systemy mainframe’owe będzie rok 2000. Wiele dawnych aplikacji nie rozpoznaje właściwego, czterobajtowego formatu daty i może sobie nie poradzić z przejściem w nowy wiek. Jeśli istotnie tak się stanie, wiele dużych komputerów zostanie po prostu wyłączonych, a firmy, które we właściwym momencie nie przewidziały problemu i nie znalazły rozwiązania, może stanąć u progu bankructwa. Z tego powodu najwięksi producenci mainframe’ów oferują pakiety rozwiązań, ułatwiających łagodne przejście przez feralną datę.

Najbardziej pesymistyczne przepowiednie mówią, że 30% aplikacji na mainframe przestanie działać w dniu 1 stycznia 2000 r., zaś 10% firm korzystających z nich zbankrutuje z powodu niemożności prowadzenia obsługi informatycznej swej działalności.

Sieć coraz ważniejsza

Obecnie dominują zagadnienia związane z sieciami LAN wewnątrz firmy. Jednakże coraz bardziej odczuwana jest potrzeba komunikowania się z klientami, dostawcami i partnerami handlowymi. Efektem jest nacisk na rozwój sieci WAN i ich połączenie z siecią korporacyjną.

Jednym z pomysłów na usprawnienie komunikacji jest stosowanie standardowych rozwiązań w całej społeczności biznesowej. Jedyne powszechnie akceptowane standardy używane są w Internecie i WWW - protokoły TCP/IP, HTTP i HTML oraz język Java. Stosowanie aplikacji i rozwiązań opartych na standardach i języku Java pozwala rozwiązać problemy niezgodności sprzętowej, rozprzestrzeniania aplikacji bez potrzeby dostosowywania ich do systemu użytkownika.

W zakresie rozwiązań technicznych - mimo różnych pomysłów stosowania ATM i innych szybkich technik - Ethernet nadal dominuje w komputerach użytkownika końcowego. Przełączniki ethernetowe (zamiast tradycyjnego huba) gwarantują każdemu użytkownikowi pasmo 10 Mb/s, oddalając potrzebę stosowania droższej techniki szybkiego Ethernetu. Przejście na protokół IP spowoduje masowe stosowanie przełączników IP zamiast wolniejszych i droższych wieloprotokołowych routerów.

Potrzebna wróżka

Nikomu nie udaje się przewidywać przyszłości z całą pewnością. Propagowany kilka lat temu świat „systemów otwartych" zapowiadał pełną zgodność i wymienność różnych systemów informatycznych w przedsiębiorstwie. Okazało się to nie do spełnienia: w przedsiębiorstwach mamy różnorodną mieszankę produktów i systemów niezbyt ze sobą zgodnych, wymagających dużego wysiłku informatyka, aby umożliwić ich współpracę.

Próby standaryzacji rozwiązań okazały się także mało obiecujące: nim standardy znajdą powszechną akceptację, mijają lata, a tymczasem trzeba sobie radzić z problemami codziennego dnia informatycznego.

Obecnie pojawiła się możliwość standaryzacji na innym poziomie: protokołów sieciowych i środowiska Java zapewniającego wymienność programów i danych niezależnie od używanego sprzętu i systemu. Informatyk może już swobodnie łączyć ze sobą różne aplikacje, systemy i zasoby danych, bardziej zajmować się potrzebami użytkownika tych danych niż problemami zgodności sprzętowej czy systemowej.

Wszyscy obserwatorzy rynku informatycznego zgadzają się co do tego, że Java (rozumiana jako środowisko, nie tylko język programowania) będzie stanowić rdzeń przyszłych rozwiązań informatycznych.


TOP 200