Projektowanie lokalizacji serwerów
- Bronisław Piwowar,
- 01.06.1999
Jarosław Nowicki (SEQUENT Poland) dyrektor generalny
Bez względu na swoje przeznaczenie podstawową rolą serwerów jest zawsze dostarczenie wydajnej i niezawodnej platformy dla uruchamianych na nich aplikacji.
W zależności od rodzaju pracującej na serwerze aplikacji może on spełniać w sieci różne role: począwszy od funkcji serwerów pomocniczych, serwerów specjalizowanych, a skończywszy na głównych serwerach, bądących źródłem danych dla korporacyjnych centrów danych.
Przykładami zastosowań serwerów mogą być:
- korporacyjne centra danych
- centralne serwery bazodanowe i aplikacyjne
- serwery grupowe
- serwery komunikacyjne
- serwery dostępowe (ochrony dostępu)
- inne.
W ofercie firmy Sequent znajdują się wieloprocesorowe serwery NUMA-Q 1000, NUMA-Q 2000, NUMA Center, oparte na procesorach Intela i pracujące pod systemami UNIX i Windows NT. Produkty Sequenta, dzięki swym możliwościom, dobrze odpowiadają szerokim potrzebom rynku. Możliwość zainstalowania od 4 do 256 procesorów zapewnia dużą skalowalność i wydajność przetwarzania. Unikatowe w świecie rozwiązanie techniczne NUMA Center umożliwia jednoczesną pracę dwóch systemów operacyjnych (UNIX i Windows NT) na jednym komputerze.
<hr size=1 noshade>Tomasz Bochenek (IBM Polska) dyrektor handlowy:
Serwery od wielu lat stanowiły serce sieci komputerowych. Z biegiem lat zmieniała się koncentracja informacji składowanych na serwerach. Początkowo sieć posiadała jedną lub kilka dużych maszyn (np. typu mainframe), na których znajdowały się wszystkie informacje dostępne w sieci. Wraz ze startem ery komputerów opartych na architekturze Intela rozpoczęło się rozpraszanie informacji (danych) na mniejsze serwery (serwery departamentowe lub serwery grup roboczych) i stacje robocze, jednakże zawsze istniał serwer główny, pełniący funkcję nadrzędną - np. kontrolera domeny. Obecnie następuje ponowna integracja informacji zapisanych na serwerach sieciowych przez instalowanie dużych pojedynczych serwerów, złączonych niejednokrotnie w klastry (dla podniesienia ich wydajności i niezawodności). Integracja ułatwia zarządzanie danymi znajdującymi się na maszynie, daje możliwość wykonania centralnego backupu danych itp. Nowoczesna sieć kampusowa jest siecią spinającą podsieci znajdujące się w uczelnianych ośrodkach komputerowych. Podsieci z reguły posiadają wiele komputerów pracujących jako serwery plików i aplikacji głównie wykorzystywanych lokalnie. Sieć kampusowa nie musi w swojej strukturze posiadać oddzielnych, dodatkowych serwerów, jednakże często tworzy się specjalne ośrodki komputerowe będące wsparciem dla takich sieci -posiadające zespół dużych serwerów lub superserwerów (np. IBM SP-2 oparte na architekturze RISC), działających głównie jako maszyny obliczeniowe, maszyny zawierające informacje niezbędne dla działania całej sieci lub serwery komunikacyjne. Serwery te są współdzielone i wykorzystywane przez wszystkie podsieci sieci kampusowej.
Główne typy serwerów to:
- Serwery plików i drukarek, z reguły oparte na architekturze Intela; najczęściej małe maszyny z zainstalowanym systemem operacyjnym umożliwiającym współdzielenie plików i drukarek (np. Windows NT lub Novell NetWare).
- Serwery aplikacji i baz danych; w zależności od wymagań aplikacji są to komputery oparte na procesorach RISC lub duże serwery intelowskie.
- Serwery komunikacyjne, umożliwiające komunikację sieci komputerowej ze światem zewnętrznym, np. serwery Firewall, RAS (Remote Access Services) lub serwery intra/internetowe.
- Serwery IBM Netfinity - oparte na architekturze Intela, pracujące pod kontrolą systemów operacyjnych: MS Windows NT, Novell NetWare, IBM OS/2, SCO Open Server itp.
- AS/400 - serwery bazodanowe lub aplikacyjne. Systemem operacyjnym działającym na tym serwerze jest OS/400 - napisany specjalnie na tę platformę.
- RS/600 - oparte na architekturze RISC (procesory PowerPC). Wykorzystują one AIX jako system operacyjny.
- S/390 - komputery typu mainframe.
<hr size=1 noshade>Roman Durka (DELL Polska) dyrektor generalny:
Podstawowym kryterium podziału serwerów na rodziny jest odpowiedź na pytanie: co stanie się z serwerem (i z naszą siecią), gdy ulegnie on awarii?
Serwery serii Dell PowerEdge 1300/2300 były projektowane jako maszyny "pierwszego uderzenia". Łączą one dużą moc z łatwością konfiguracji i z niezawodnością mechaniczną. Nie mają jednak
dodatkowych zabezpieczeń, takich jak nadmiarowe zasilacze czy wentylatory.
Jedynie dyski twarde (co jest konieczne w każdym serwerze) mogą być zabezpieczone za pomocą systemów "raidowych". Maszyny takie znajdują zastosowanie - jako print-serwery, serwery pików czy aplikacji - w takich sytuacjach, w których naprawa serwisowa (np. w czasie do 8 godzin) jest wystarczająca.