Projektowanie lokalizacji serwerów
- Bronisław Piwowar,
- 01.06.1999
W miarę jak rosła liczba aplikacji i zmieniały się wymagania w zakresie wydajności sieci, zmieniał się również model pracy serwerów. Menedżerowie sieciowi zaczęli umieszczać popularne programy w pamięci serwerów dystrybucyjnych. W ten sposób w połowie lat 90. zaczęła obowiązywać relacja 20 : 80 = (procent ruchu serwerów przedsiębiorstwa) : (procent ruchu serwerów dystrybucyjnych).
Pod koniec dekady ponownie zmienia się filozofia użytkowania serwerów, z uwagą skierowaną na serwery przedsiębiorstwa. Zmiana modelu tym razem wynika przede wszystkim z wprowadzania nowego oprogramowania aplikacyjnego, takiego jak multimedia. Na przykład wiele aplikacji multimedialnych używa serwera wideo. W miarę jak popularność aplikacji multimedialnych będzie wzrastać, coraz więcej ruchu w sieci będzie pochodzić właśnie od tych serwerów centralnych.
Nowe technologie i aplikacje, wymagające dużych przepływności, ponownie wymusiły potrzebę przemyślenia, jak serwery powinny być używane w sieci. Obecne serwery są większe, szybsze i o większej mocy obliczeniowej niż te sprzed dwóch, trzech lat. Pozwala to na używanie ich w nowych rolach.
Inne serwery
Okazuje się, że dla pewnych rodzajów sieci nie wystarczające są, dotychczas omówione, serwery przedsiębiorstwa i serwery dystrybucyjne. Powstały nowe klasy tych urządzeń: 1) sieciowe superserwery, 2) serwery komputera sieciowego, 3) serwery aplikacji webowych.
Sieciowy superserwer
Coraz częściej zdarza się, że serwery centralne są zbyt wolne do obsługi docierającego do nich ogromnego ruchu. W celu pokonania tej trudności zrodziła się idea sieciowego superserwera (Network Super Sever), składającego się z wielu serwerów przedsiębiorstwa i dysponującego znacznie większą mocą procesora i szybkością działania, a także możliwością podłączania wielu kart sieciowych oraz dużych pamięci do przechowywania danych. Superserwery do złudzenia przypominają bardzo popularne niegdyś duże komputery (mainframes), które obecnie przeżywają swój renesans i znowu stają się popularne.
Na pierwszy rzut oka idea superserwera wydaje się być pozbawiona wad. Okazuje się jednak, że możliwość konsolidacji wielu fizycznych serwerów w jeden logiczny okazuje się problematyczna. Jeśli na przykład kilka serwerów poczty e-mail chce się zastąpić jednym dużym superserwerem poczty e-mail, to wtedy stanowi on jeden newralgiczny obiekt narażony na uszkodzenie, co z punktu widzenia niezawodności sieci nie jest najlepszym rozwiązaniem. Jeśli serwer aplikacji wymagających szerokiego pasma jest sprzęgany z dwoma innymi serwerami podobnych aplikacji, to może zabraknąć mocy przetwarzania oraz szerokości pasma w okablowaniu i w superserwerze, aby efektywnie realizować występujące aplikacje.
Innym problemem jest to, że sieć może nie "udźwignąć" zwiększonego ruchu, który przepływa przez nią, aby dotrzeć do superserwerów. Jeśli na przykład sieć była początkowo zaprojektowana do przenoszenia ruchu lokalnego do serwerów dystrybucyjnych, a obecnie zastosowanie superserwerów w znaczący sposób zmienia model ruchu, to fakt ten może spowodować potrzebę przebudowy infrastruktury sieci (w tym infrastruktury kablowej) w celu uzyskania drożności sieci.
Serwer komputera sieciowego
Ten typ serwera jest związany z wprowadzaniem nowego rodzaju komputera, zwanego komputerem sieciowym NC {Network Computer), określanym też mianem "odchudzonego klienta". Jest to maszyna z bardzo oszczędną elektroniką, praktycznie bez twardego dysku i możliwości samodzielnego funkcjonowania, z potrzebą pracy w sieci i z koniecznością każdorazowego odwoływania się do mocnego serwera, w którym zapamiętane są zarówno programy aplikacyjne, jak i zbiory danych. Używanie komputera NC może powodować duże zwiększenie ruchu w sieci.