NT kontra Unix który dla rozwoju sieci intranetowych?

Od ponad dwu lat środowisko sieciowych systemów operacyjnych stało się areną zaciętej rywalizacji między Unixem a Windows NT (New Technology). Podczas gdy system Microsofta nadrabia opóźnienia technologiczne, Unix wzbogaca się o wygodniejsze i bardziej przystępne interfejsy administracyjne. Cały spór już od dawna ma charakter komercyjny, gdyż twórcy tych systemów przejawiają ambicję dominacji rynkowej.

Od ponad dwu lat środowisko sieciowych systemów operacyjnych stało się areną zaciętej rywalizacji między Unixem a Windows NT (New Technology). Podczas gdy system Microsofta nadrabia opóźnienia technologiczne, Unix wzbogaca się o wygodniejsze i bardziej przystępne interfejsy administracyjne. Cały spór już od dawna ma charakter komercyjny, gdyż twórcy tych systemów przejawiają ambicję dominacji rynkowej.

Unix zmienia stopniowo swoje elitarne oblicze i zaczyna przenikać do perspektywicznego środowiska serwerów grup roboczych. Windows NT zdobywa zwolenników w segmencie serwerów oddziałowych, bardzo atrakcyjnym z uwagi na znaczną pojemność.

Środowisko platform eksploatacyjnych Internet/intranet jest wciąż zdominowane przez Unixy lub przez systemy własne. NT oferuje komfortową platformę, odpowiadającą większości potrzeb. Ewoluuje on regularniej od Unixa, zachowując przy tym pozory prostoty. Chociaż ostatnie wersje NT nie dawały użytkownikom poczucia stabilności, to administrator stacji roboczych - najczęściej PC pod Windows - coraz częściej ulega pokusie wyboru bezpieczeństwa, jakie ma wynikać z quasi-monopolis-tycznej pozycji NT. Unix ma wiele wersji.

W czym nasz Unix jest lepszy od innych Unixów - mniej więcej w taki sposób producenci chcieliby opisywać swoje systemy unixowe. Ale prawdą jest, że Unix może być synonimem stabilności, niezawodności i skalowalności, a ponadto uchodzi za wzór możliwości automatyzacji zadań.

Niezależnie od przytaczanych analiz porównawczych warto już na samym wstępie zaznaczyć, że obydwa środowiska dysponują coraz bardziej porównywalnymi atutami. Na razie jednak NT nie jest jeszcze gotowy do stawienia czoła wszystkim problemom eksploatacyjnym wielkich sieci informatycznych. Najnowszą, piątą wersję tego systemu będzie można analizować dopiero po premierze. Microsoft zechce zapewne zaprezentować usługi katalogowe z prawdziwego zdarzenia, system klasteringu i w pełni zintegrowane narzędzia zarządzania. Spowoduje to jeszcze zwiększenie złożoności tego sytemu.

Historia Unixa i NT

Unix wyłonił się w Bell Laboratories z projektu Kena Thompsona oraz Denisa Ritchie i po raz pierwszy został zaimplementowany 30 lat temu - w 1969 r. - na komputerze PDP-7 firmy Digital Equipment. Rok wcześniej zaczęła funkcjonować historycznie pierwsza heterogeniczna sieć z przełączaniem pakietów - ARPAnet. Więź Unixa z tą siecią zaowocowała jego trwałymi związkami z Inter-netem oraz intranetami: pod koniec lat siedemdziesiątych DARPA (Defense Advanced Research Projects Agency) musiała się zdecydować na zmianę technologii ARPAnetu na bardziej wydajną i w miejsce Package Switch Nodes wprowadziła Department of Defence Protocol Suite - zbiór protokołów znanych później pod nazwą protokołu TCP/IP lub DOD. W 1982 r. cała rodzina TCP/IP została włączona do systemu Unix 4.2 BSD (Berkeley System Distribution Unix), a w następnym roku do systemu Unix 4.3 BSD i od tej chwili wszystkie komputery pracujące w sieci ARPAnet musiały przyjąć ten standard. Dla usług Inter-netowych w rodzaju HTTP (HyperText Transfer Protocol), NNTP (Network News Transfer Protocol) lub SMTP (Simple Mail Transfer Protocol) Unix jest teraz platformą wręcz doskonałą. Po sieci ARPAnet pozostały natomiast jedynie ślady w Internecie...

Rodowód Windows NT jest znacznie krótszy, sięga zaledwie 1993 r. Skrót NT jest nazwą projektu, pod którą Microsoft opracował własną wersję systemu OS/2, niezależną od IBM. Wersje niższe od NT 4.0 nie były jednak w stanie konkurować z Unixami. Dzisiejsze wersje NT zaczynają nawet penetrować rynek serwerów interneto-wych, na którym pozycja Unixa wydaje się być niepodważalna. Silną stroną NT są liczne aplikacje, dostarczane również przez producentów trzecich. Na rynku serwerów aplikacji, prawie tradycyjnie rezerwowanym do tej pory dla Unixa, zaczyna być zauważalna przewaga Windows NT 4.0. Widać w tym duży wpływ producentów relacyjnych baz danych z Oracle na czele, wspierających coraz wyraźniej platformę Microsoftu. Ale konkurencja rysuje się bardzo interesująco: na ten rynek wchodzi również Novell wraz ze swoim NetWare 5.0. Unix wciąż zachowuje silną pozycję, a NT nie jest jeszcze wystarczająco mocny ani też nie reprezentuje takiej łatwości zarządzania jak Unix.

Zwolennicy NT wytykają konkurentowi jego „zaawansowany wiek", a zwolennicy Unixa - niefrasobliwą młodość NT. I chociaż w zasadzie rację mają obydwie strony, to jednak niektóre uzasadnienia nie miały wiele wspólnego z prawdą. Co w istocie jest mitem, a co faktem?

Czy NT jest prostszy DZIĘKI SWOJEMU INTERFEJSOWI UŻYTKOWNIKA?

W porównaniu z wymagającym większej wiedzy systemem Unix uruchomienie serwera NT jest znacznie prostsze. Moduły towarzyszące instalacji i konfiguracji dają administratorowi poczucie komfortu, nawet bardziej niż interfejs graficzny, którego wszystkie aspekty są znane większości użytkowników PC.

Pozory jednak mylą. NT jest systemem skomplikowanym. Wygodny interfejs graficzny i jego udane dodatki skrzętnie przysłaniają rzeczywistą złożoność systemu. Struktura bazy rejestrów, która przyczyniła się w pewnej mierze do sukcesu NT, nie jest też tak elastyczna jak struktura plików konfiguracyjnych Unixa i ten niedostatek rzutuje, na zdolność zdalnego administrowania systemem. Jeśli doda się do tego jedną z największych i najdłużej trwających bolączek NT, czyli niedobór dobrze wykształconych specjalistów, których umiejętności wykraczałyby ponad poziom kilku wyuczonych, relatywnie prostych operacji na interfejsie, to staje się jasne, dlaczego wybór systemu NT może być dyskusyjny.

Korzystnie w tym świetle prezentuje się Unix. System ten od dwudziestu lat pozostaje żelaznym punktem programów nauczania w wyższych uczelniach technicznych i uniwersytetach prawie na całym świecie. Jeśli doda się jeszcze ostatnie przekształcenia tego coraz mniej skomplikowanego w administracji systemu oraz jego przystępny interfejs graficzny, to można śmiało stwierdzić, że jak dotąd Unix zachowuje tu pewną przewagę. Wybór jest więc prosty. Trzeba się zdecydować na system, który będzie w stanie uwzględnić potrzeby sieciowe przedsiębiorstwa w każdym kontekście. Wskazana jest przy tym pewna ostrożność, gdyż konkurencja między różnymi i producentami unixów może w perspektywie średnioterminowej wyeliminować z rynku systemy mniej rozpowszechnione.

Czy Unix jest droższy?

Przy zbliżonej konfiguracji i porównywalnych warunkach eksploatacji koszty globalne serwera Unix są nieco wyższe od kosztów serwera NT. Trzeba jednak dodać, że ta różnica zaciera się teraz coraz wyraźniej i to z kilku różnych względów.

Ceny serwerów PC o wysokich parametrach obniżają się wolniej niż serwerów Unix kilku konkurujących ze sobą producentów Proces oddzielania programowej części serwera od sprzętowej, inspirowany m.in. przez Microsoft, nie ułatwia producentom urządzeń amortyzacji rozwoju, a od nich przecież rynek oczekuje znacznie większych wysiłków niż od producentów oprogramowań. Urządzenia przeznaczone do masowego użytku nie sprawiają wprawdzie kłopotów eksploatacyjnych, ale jako serwery z pewnością nie dają poczucia pewności w trakcie ich bardziej intensywnego funkcjonowania.

Producenci serwerów pod Unix poszerzają swoją ofertę. Coraz częściej pojawiają się nowe modele o niższych parametrach, stanowiące bezpośrednie zagrożenie dla serwerów PC. Ich moc przetwarzania jest mniejsza niż starszych i potężniejszych poprzedników unixowych, ale są porównywalne z nimi pod względem niezawodności i stanowią, jeżeli zechce się ich używać, interesującą alternatywę dla serwerów WinTel.

Aplikacje specjalizowane pod Unix były często trudniejsze w eksploatacji z oczywistych powodów - ich projekt uwzględniał obsługę dużej liczby użytkowników. Dzisiaj ceny tych programów nadążają za cenami urządzeń i są coraz bardziej ujednolicone, podczas gdy model ekonomiczny PC, tak bliski światu NT, nadal opiera się na wolumenie sprzedanych programów i pozwala na stosowanie niższych marż.

Warto jeszcze odnotować, że system NT wzbogaca się dosyć regularnie, a więc w miarę kolejnych ewolucji jego cena powinna znacznie wzrosnąć i zrównać się z produktami oferowanymi przez konkurentów. Wolno więc przypuszczać, że na razie czysto formalna granica między wersjami stacji roboczej i serwera systemu Microsoftu może z czasem oznaczać głębszą różnicę funkcjonalną. I tu daje o sobie znać wspomniana już bolączka NT -niedobór wykwalifikowanej kadry administratorów stanowi zawsze ryzyko wzrostu kosztów.

Czy NT jest wystarczająco NIEZAWODNY?

Główny problem produktów Microsoftu wiąże się ze strategią tej spółki, a właściwie z jej modelem ekonomicznym. Z jednej strony - Microsoft chce sprzedawać dużo możliwie najnowocześniejszych produktów, ażeby wolumenem sprzedaży stymulować swój rozwój i urentownić prowadzoną działalność. Dzisiaj jest to jednak coraz trudniejsze. Z drugiej strony - ten znany producent oprogramowania chciałby przenieść fazę testów na użytkowników, zwykle dosyć niecierpliwych w implementowaniu najnowszej wersji systemu. Zabiegi modernizacyjne pozwalają wprawdzie firmie oferować produkty integrujące najnowsze technologie, ale częste zmiany destabilizują całe środowisko i prowadzą do komplikowania zarządzania.

W przeciwieństwie do Windows NT systemy Unix ewoluują mniej regularnie. Przechodzenie z jednej wersji do drugiej jest często trudne i kosztowne, ale w dłuższej perspektywie wszystkie konfiguracje pozostają bardziej stabilne. Nic więc dziwnego, że liczni administratorzy NT są teraz skłonni naśladować model eksploatacji systemów Unix, tzn. decydować się na rzadkie, ale globalne migracje przeprowadzane po serii intensywnych testów w odrębnej, izolowanej sieci o bardzo stabilnych podstawach. Wskazane są takie konfiguracje, do których użytkownicy zdążyli już nabrać zaufania. Po spełnieniu przez administratorów tak sprecyzowanych warunków sieć serwerów pod NT wydaje się być równie satysfakcjonująca jak pod Unix.

Czy NT nie odpowiada wielkimi KONFIGURACJAMI SIECIOWYMI?

Systemowi NT brakuje jeszcze wydajnych i elastycznych metod administracji rozproszonej oraz mechanizmu rozkładu obciążenia, jak m.in. SMP (Shared-memory MultiPro-cessing) czy technologia klastrowa (clustering). Wymagane tu zespoły różnych funkcji już istnieją, ale najczęściej w formie produktów tworzonych przez mniej znaczące firmy. Teraz włącza się je do systemu, ale do zakończenia tego procesu jeszcze daleko. Jest to o tyle ważne, że integracja urządzenia z systemem operacyjnym jest czynnikiem wpływającym decydująco na stopień dostępności systemu. A to jest właśnie najtrudniejsze do osiągnięcia przy tworzeniu serwera PC, stanowiącego ulubioną platformę sprzętową NT.

Serwery konkurencyjnych producentów mają tu dużą przewagę, wynikającą w pierwszym rzędzie z funkcji au-tokontrolnych systemu. Oferują one m.in.:

• alarmowanie w razie awarii jakiegoś podzespołu, np. dysku, pamięci czy procesora;

• dynamiczne wyłączanie uszkodzonych zasobów;

• izolowanie i zastępowanie „na gorąco" niepewnych elementów (w niektórych przypadkach).

Wszystkie te funkcje są niezbędne do zapewnienia zbliżenia dostępności systemu do wartości maksymalnej (100%). Zwykle przyjmuje się, że pojedynczy system Unix może dostarczyć 99,5% dostępności. Unix pozostaje więc odniesieniem dla systemów obsługujących wielu użytkowników. W tej dziedzinie NT oferuje funkcje niekompletne, a niektórych nawet w ogóle nie proponuje, jak np. zarządzania kontami przestrzeni dyskowej.

Tylko NT potrafi SPRZĘGAĆ SIĘ Z SIECIĄ PC?

NT pozostaje bez wątpienia najlepszą platformą integracji sieci PC, ponieważ uwzględnia to środowisko od samego początku. Jednak producenci oprogramowania unixowego czynią bardzo duże starania mające na celu szybkie włączanie do swoich systemów tych wszystkich aplikacji, które do tej pory były dostarczane oddzielnie i to po dosyć wysokich cenach. W ten sposób w większości rynkowych Unixów znalazły się: brama IP/IPX (Internet Proto-col/Internetwork Packet eXchange) oraz funkcje zapewniające kompatybilność z protokołami Microsoftu.

O ile jednak eksport plików i drukowanie nie stanowią większego problemu, o tyle pełne emulowanie serwera NT przez system Unix pozostaje wciąż przedsięwzięciem trudnym.

Czy NT zawodzi w ochronie sieci?

W zasadzie żaden system operacyjny zarządzający serwerami już ze swej istoty nie może być bezpieczny. Jego

skuteczność w ochronie sieci jest bezpośrednio funkcją zapobiegliwości i ostrożności administratora oraz dyscypliny użytkowników. Z tej racji NT nie jest prawdopodobnie bardziej ryzykowny od swojego konkurenta, jeśli tylko obydwa systemy zostaną skonfigurowane przez swoich ekspertów. NT nie grzeszy wprawdzie finezją w opcjach konfiguracyjnych proponowanych przez interfejs graficzny, ale z kolei słabością Unixa jest konieczność uwzględnienia sporej liczby plików konfiguracyjnych.

Wydaje się, że jedynym skutecznym narzędziem dedykowanym bezpieczeństwu pozostaje zapora ogniowa lub system takich zapór. Jednak bezpieczeństwo sieciowe stoi dzisiaj przed problemami bardzo trudnymi do rozwiązania.

Czy Unix jest bardziej wydajny?

Porównania między różnymi systemami są tu na tyle trudne, że trzeba koniecznie uwzględnić konfigurację sprzętową.

Architektury typu PC nie były początkowo tworzone z myślą o intensywnej eksploatacji, która cechuje serwery. Wejścia i wyjścia nie spełniają współczesnych wymagań, uniemożliwiając szybką realizację operacji we/wy. Zbyt wąska szyna wewnętrzna jest zarządzana przez jeden, dość szybko przeciążający się procesor, a superpozycja urządzeń peryferyjnych pochodzących od wielu dostawców komplikuje komunikację i przetwarzanie. W tych okolicznościach prawdziwe wydaje się stwierdzenie, że NT lepiej funkcjonuje na urządzeniach o wyższej niezawodności i przystosowanych do intensywnego funkcjonowania. Nie można jednak oczekiwać, że ten system zdoła się przystosować, do wielu rozmaitych platform sprzętowych. .

Na gruncie czysto programowym Unix zachowuje przewagę, wynikającą z dysponowania zaawansowanymi funkcjami wielozadaniowymi, dobrze dostosowanymi do rosnących obciążeń. Jego systemy plików są również lepiej zorganizowane oraz staranniej przystosowane do wymagań wielkich baz danych. Pozycja NT w segmencie serwerów wielkiej pojemności nie jest jeszcze stabilna.

Podsumowanie

NT odpowiada dzisiaj wszystkim potrzebom małych przedsiębiorstw i grup roboczych.

Unix natomiast rozszerza swoją ofertę i upraszcza mechanizmy zarządzania. Jego dodatkowym atutem są również doświadczone kadry administratorów, których brak dotkliwie odczuwa środowisko NT. W powiązaniu z rosnącą złożonością systemu NT może to w przyszłych latach osłabić pozycję Windows.

Ceny obydwu systemów powoli się wyrównują, a ich rynki zaczęły się wzajemnie przenikać. Administracja rozproszona pozostaje królestwem Unixa i jego metody dostępu przez terminale zdalne. Interfejs graficzny NT przeciwstawia światu „wykonaj" - świat „powierz mi", gdzie Unix wciąż pozostaje niezastąpiony. I chociaż obydwa systemy zaczynają ze sobą współpracować, to przyszłość należy do połączenia ich mocnych stron. Ale widać też coraz wyraźniej, że w tej przyszłości niepoślednie miejsce zacznie zajmować uproszczona wersja Unixa - Linux. A ponadto istnieją przecież znakomite systemy Novella...