Ostoja wielkiej mocy

Odbierając Unixowi rynek prostych zastosowań informatyki, Windows i Linux nieuchronnie popychają go w kierunku zadań i wymagań, którym same jeszcze długo nie będą w stanie sprostać.

Odbierając Unixowi rynek prostych zastosowań informatyki, Windows i Linux nieuchronnie popychają go w kierunku zadań i wymagań, którym same jeszcze długo nie będą w stanie sprostać.

Tam, gdzie jeszcze do niedawna Unix był jedyną rozsądną opcją, wkraczają rosnące w funkcjonalność i niezawodność systemy Windows i Linux. Pojawiają się głosy, że najdalej w ciągu kilku lat oba te systemy zepchną Unixa na margines. Regres Unixa przepowiadano już jednak nieraz i jakkolwiek ustąpił on nieco miejsca konkurentom, trzyma się nieźle. Fakt, że wokół Linuxa i Windows wiele się dzieje, to najlepsza oznaka tego, że - przynajmniej na razie - to one muszą ścigać Unixa, a nie odwrotnie.

Systemy Unix miały czas, by dojrzeć. Zawierają skumulowaną wiedzę zbieraną przez inżynierów systemowych przez ponad trzydzieści lat. Twórcy Unixa podglądali dorobek systemów mainframe - podobnie jak twórcy Windows i Linuxa od lat podglądają rozwiązania wypracowane w świecie Unixa. Długa historia jako taka nie jest wcale wadą. Przez wszystkie te lata ustaliły się najlepsze praktyki w dziedzinie bezproblemowej i wydajnej współpracy ze sobą poszczególnych warstw abstrakcji, zarządzania dostępnymi zasobami, podstawowe wyznaczniki bezpieczeństwa informatycznego i wiele innych.

W tym czasie cała informatyka jednak poczyniła duży postęp i w wielu firmach zaczęto wykorzystywać - tam, gdzie to możliwe - rozwiązania dostatecznie dobre, ale niekoniecznie finezyjne czy doskonałe. Niejeden szef IT zastanawia się, czym Unix może w przyszłości usprawiedliwić wydatek nie tylko na licencje, ale także na dodatkowe narzędzia, sprzęt i usługi wsparcia. Dostawcy komercyjnych systemów Unix pracują nad tym, by powodów do ich wykorzystania było wkrótce znacznie więcej.

Dzieli się i mnoży

Jednym z podstawowych kierunków rozbudowy systemów Unix jest poszerzanie możliwości partycjonowania, co ma związek z dążeniem firm do konsolidacji aplikacji na możliwie niewielu systemach sprzętowych. W systemie Solaris 10, którego premiera jest zaplanowana na drugą połowę br., Sun Microsystems zamierza wprowadzić możliwość podziału systemu operacyjnego na wiele niezależnych "obszarów" wykorzystujących wycinek mocy obliczeniowej, pamięci pasma I/O itd. i współdzielących dostęp do jednego jądra.

Podobne możliwości od dawna oferuje system Tru64 Unix w ramach funkcji VPAR. HP deklaruje, że do 2006 r. funkcja ta znajdzie się w HP-UX. Na razie system można podzielić na partycje logiczne (de facto nazwane zbiory procesów) i za pomocą narzędzia Partitioning Resource Manager przydzielać im procesory. Oddzielne narzędzie - Workload Manager - służy do przydzielania mocy obliczeniowej pojedynczym procesom. Także systemy Solaris i AIX mają narzędzia analogiczne funkcjonalnie do HP-UX Workload Manager.

Partycjonowanie systemu IBM AIX polega dziś na przypisywaniu procesora jednemu z 4 systemów działających w ramach tego samego serwera fizycznego. Partycjonowanie jest realizowane na poziomie mikrokodu chipsetu. Jeszcze w tym roku na jednym serwerze będzie można uruchamiać do 10 niezależnych partycji, podobnie jak w Solaris 10. Pojawi się też możliwość w pełni dynamicznego określania dla każdej partycji mocy obliczeniowej, pamięci i pasma I/O oraz innych zasobów.

Rozwój wszystkich systemów Unix idzie w kierunku umożliwienia dowolnego dzielenia systemu na niezależne obszary z dynamicznie przydzielanymi zasobami. Oczywiście, bez konieczności zatrzymywania serwera ani działających w jego środowisku aplikacji. Stuprocentowa dostępność jest celem ostatecznym wszystkich producentów systemów operacyjnych.

Razem można więcej

Kolejnym kierunkiem rozwoju systemów z serii Unix są klastry wydajnościowe i skalowalność. Najwydajniejsze dziś rozwiązania klastrowe TruCluster (do ośmiu węzłów fizycznych widzianych przez aplikacje jako jeden system operacyjny) działają na razie tylko w środowisku Tru64 Unix. HP obiecuje, że do 2006 r. również i te funkcje będą działać na platformie HP-UX (wersja 11i v.3). W momencie premiery będą dostępne serwery HP Superdome mogące pomieścić 128 procesorów Itanium - prawdopodobnie dwurdzeniowych, a więc efektywnie 240. Taki "wielokomputer" zawierający łącznie 1920 (8 x 240) procesorów powinien zaspokoić dowolne potrzeby obliczeniowe.

Sun Microsystems planuje nieco inną strategię skalowalności systemu Solaris. Firma pracuje nad nowymi wersjami procesorów wielordzeniowych, które umożliwią każdemu procesorowi kontrolowanemu przez Solaris realizowanie równolegle do 32 wątków sprzętowych. Taką architekturę przetwarzania Sun nazywa throughput computing. No cóż, najwydajniejszy serwer tej firmy mieści dziś 106 procesorów - po pomnożeniu tej liczby przez 32 wątki sprzętowe otrzymuje się wynik budzący respekt. Tym bardziej że przetwarzanie ma się odbywać w ramach jednego systemu ze współdzieloną pamięcią.

IBM ma liczone w dziesiątkach lat doświadczenia w budowie klastrów wydajnościowych z synchronizacją pamięci (Parallel Sysplex - do 32 węzłów). Big Blue ma także największe doświadczenie w budowie rozproszonych systemów równoległych (Massively Parallel Processing - klastry obliczeniowe składające się nawet z 512 węzłów serwerów pSeries) oraz klastrów rozproszonych geograficznie.

IBM nie pozostawia wątpliwości, że rozwój systemu AIX idzie w kierunku dodawania kolejnych funkcji dostępnych dotychczas w systemach z/OS oraz OS/400. Sprzyja temu konsekwentna polityka ujednolicania architektury sprzętowej wokół procesorów POWER/PowerPC.

Popularyzacja architektur opartych na usługach (Service Oriented Architectures) będzie dodatkowym wyzwalaczem rozwoju funkcjonalności klastrowej.

Od zawsze bezpiecznie

Systemy Unix są uznawane za relatywnie bezpieczne i to m.in. z tego powodu wciąż cieszą się powodzeniem wśród klientów. Oczywiście, historia zna wiele udanych włamań na serwery Unix, do obrony zasobów przed nieuprawnionym dostępem do zasobów informacyjnych systemy z tej serii są jednak bardzo dobrze przygotowane. Funkcje związane z bezpieczeństwem wciąż są od lat w centrum uwagi twórców systemów Unix. Sun zapowiada, że Solaris 10 będzie zawierać wiele zabezpieczeń stosowanych dotychczas w systemie Trusted Solaris.

IBM wspólnie z amerykańskimi agencjami rządowymi pracuje nad wprowadzeniem do systemów operacyjnych architektur umożliwiających równoległe przetwarzanie kilku wersji systemu i aplikacji, co ma zabezpieczyć je przed atakiem na konkretną lukę w zabezpieczeniach. Kierunek na bezpieczeństwo przyjął również HP. Firma rozwija "utwardzoną" wersję HP-UX o nazwie Bastille. W systemie tym uprawnienia są definiowane bardzo precyzyjnie, a ponadto przywileje pojedynczego użytkownika - nawet administratora najwyższego rzędu - nie pozwalają zrobić systemowi krzywdy.

Z punktu widzenia biznesu bezpieczeństwo to także niezawodność i dostępność. Zagadnienie to jest i będzie rozwiązywane w dużej mierze przez tworzenie instalacji klastrowych i wirtualizację, ale nie tylko. Rozwijane przez IBM architektury autonomic computing będą implementowane we wszystkich systemach tej firmy, a więc także w AIX. Niezawodne zarządzanie pamięcią, bezbłędne i odporne na awarie rozproszone systemy plików, rozwiązania pozwalające szyfrować zawartość pamięci i pamięci masowych - próbki takich rozwiązań są już teraz dostępne, jednak przyszłe wersje systemów Unix będą obsługiwać takie funkcje standardowo.

Przyszłość bez cienia obaw

Przyszłość Unixa nie wydaje się zagrożona. Nawet jeśli Unix odda pole Linuxowi czy Windows, co zwłaszcza w prostych zastosowaniach jest całkiem prawdopodobne, wciąż będzie podstawową platformą dla najbardziej wymagających aplikacji. Z czasem serwerów z Unixem na pokładzie będzie być może mniej, będą to jednak serwery liczące setki procesorów i wydajne klastry obsługujące największe bazy danych. Unixowi nie są też w stanie zagrozić platformy wirtualizacyjne - je również trzeba będzie uruchomić w jakimś wydajnym i skalowalnym środowisku. Unix - komercyjny czy darmowy - będzie się do tego świetnie nadawać.

Jest mało prawdopodobne, że w przyszłości darmowe systemy BSD czy Linux zastąpią komercyjne systemy Unix. Zadania obliczeniowe, które obsługują systemy Unix, wymagają precyzyjnego strojenia na poziomie system - sprzęt, bez tego postęp w wydajności i niezawodności systemów Unix nie byłby w istocie możliwy. Można nawet zaryzykować stwierdzenie, że prędzej Sun, HP i IBM zaczną rozdawać Unixa za darmo, pobierając opłaty z innego tytułu, niż zrezygnują z jego rozwoju.

Klienci nie szukają systemów operacyjnych dla nich samych. Dla nich liczy się to, co i za ile na tej czy innej platformie można uruchomić, jak elastyczna jest jej architektura, jakie kluczowe z punktu widzenia biznesu przewagi oferuje. Ostatnia ugoda i deklaracja wymiany patentów między Microsoftem a Sun Microsystems dobitnie świadczą o tym, że konkurencja między wielkimi świata informatyki już od dawna przebiega w dużej mierze poza światem platform systemowych.

W paczce lub osobno

Ogólne kierunki rozwoju podstawowej funkcjonalności systemów Unix są w miarę zbieżne. Różnice zaczynają się tam, gdzie w grę wchodzą strategie rynkowe związane z innymi produktami. Przykładowo, IBM i Sun Microsystems wykorzystują swoje systemy Unix do promocji serwerów aplikacji Java, które z kolei pozwalają im osiągać przyzwoite marże na usługach integracyjnych.

Jednak już forma promocji jest u obu firm różna. IBM, któremu zależy na sprzedaży licencji, oferuje poszczególne pakiety oprogramowania oddzielnie, zaś Sun - biorąc przykład z Microsoftu - integruje coraz większą liczbę platform i narzędzi w ramach systemu operacyjnego i zapewnia im jak najlepszą wydajność.

HP, któremu mimo prób nie udało się wypromować własnego środowiska J2EE, przyjął strategię bliskiej współpracy z firmami, konkurującymi z IBM i Sunem na rynku serwerów aplikacji i rozwiązań integracyjnych.


TOP 200