10 lat NetWorld i... sieci komputerowe

Podstawowym mankamentem pierwszych komercyjnych IDS były fałszywe alarmy oraz brak możliwości współpracy z różnymi platformami zarządzania.

Wraz z rozwojem metod ataków - typu DoS, Distributed DoS, ataki na aplikacje webowe - ewoluowały również systemy IDS. Na rynku pojawiały się produkty charakteryzujące się większą szybkością działania, lepszymi mechanizmami korelacji zdarzeń i możliwościami filtrowania fałszywych alarmów.

IDS stały się kombinacją różnych technik, obejmujących podejścia sieciowe, hostowe i hybrydowe. Celem stało się uzyskanie wglądu w to, co dzieje się w obrębie całej infrastruktury informatycznej - na ruterach, przełącznikach i serwerach - i przekazywanie takich informacji do systemów, które mogą podejmować odpowiednie decyzje na podstawie zebranych i skorelowanych danych o zdarzeniach. Obszarem ulepszeń w produktach IDS stało się filtrowanie fałszywych alarmów. Pojawiły się również rozwiązania prewencyjne - IPS (Intrusion Prevention System).

W pierwszych produktach IDS do rozpoznawania ataków stosowano metody porównywania zawartości ruchu z bazą danych sygnatur. Jednak przy nowych formach ataków sygnatury okazały się nieprzydatne. Coraz powszechniej zaczęto stosować metody pozwalające identyfikować ataki przez wykrywanie odchyleń od wzorców ruchu lub anomalii w implementacji protokołów.

W latach 1993-1994 na rynku pojawiły się skanery do wyszukiwania słabych punktów w systemach komputerowych (Vulnerability Assesment - VA). Do tej pory jednak nie osiągnęły one takiego stopnia dojrzałości, jakiego życzyliby sobie zarządcy sieci. Często raportują fałszywe rozpoznania.

Nowym elementem w zagadnieniu oceny słabych punktów systemów jest pojawienie się usług online w tym zakresie, świadczonych przez wyspecjalizowanych usługodawców. Usługi te zapewniają automatyczny sposób kontroli podatności urządzeń obwodowych sieci na potencjalne ataki, a także skanowanie systemów wewnętrznych.

Zarysowuje się też wyraźnie tendencja do stosowania automatycznych łatek w odniesieniu do wykrytych nieszczelności.

W ostatnim czasie na rynku narzędzi bezpieczeństwa coraz większą popularność zdobywają urządzenia ochronne (appliance) łączące wiele funkcji ochronnych (zapora ogniowa, skaner antywirusowy, filtrowanie treści, wykrywanie wtargnięć) i prostotę obsługi.

Osobną kategorię stanowią filtry antyspamowe, które zaczęły pojawiać się w miarę rozszerzania się zjawiska spamu, a także usługi antyspamowe świadczone przez wyspecjalizowane ośrodki webowe.

Serwery: od 100 do 3000 MHz

W 1994 r. obowiązywał podział na intelowskie serwery x86 i serwery oparte na firmowych procesorach RISC, który zachował się do dziś. Ale serwery były wtedy nieporównywalnie wolniejsze od obecnych (Intel zaczął wtedy produkować procesor Pentium P54C taktowany zegarem 100 MHz) i dysponowały pamięcią RAM o wielkościach 64-128 MB. Tylko najsilniejsze serwery były wyposażane w pamięć 256 MB.

Jak wiadomo, produkowane dzisiaj serwery intelowskie dysponują procesorami taktowanymi zegarem 3 GHz i więcej, i można w nich instalować pamięci RAM o wielkości kilku gigabajtów.

HP wprowadził na rynek w kwietniu 1994 r., czyli dokładnie 10 lat temu, serwery NetServer LF i NetServer LM. Były to jak na owe czasy bardzo wydajne systemy, wyposażone w procesory Pentium 66 MHz.

W 1994 r. IBM prezentuje swoje nowe intelowskie serwery linii PS/2: Server 85 i 95. Są to produkty wyposażone w procesory 486DX2

66 MHz lub Pentium 60 MHz. Za najtańszy serwer tej linii trzeba było wtedy zapłacić bagatela 11 tys. USD! Tyle wtedy kosztowały takie produkty. Kolejny przykład. Serwery firmy DEC noszące nazwę Model Prioris HX 590DP (procesor Pentium 90 MHz i 32 MB pamięci RAM). Cena - 8699 USD. DEC ogłosił wtedy triumfalnie, że wersja dwuprocesorowa tego serwera będzie dostępna na początku 1995 r.

10 lat temu na rynku serwerów RISC (obroty rzędu 29,3 mld USD) prowadziły dwie firmy: HP (32,7%, obroty 2 mld USD) i Sun (19,8%, obroty 740 mln USD). Flagowymi produktami platformy RISC tych firm były wtedy serwery HP 9000/800 (HP) i SPARCcenter 1000 (Sun).

Jednak największym producentem serwerów była w 1994 r. firma Compaq, która opanowała 37% rynku. Na kolejnych miejscach plasowały się firmy: IBM (32%), HP (10%), AST (6,2%) i Dell (5%). Dzisiaj także rządzi wielka czwórka, z tą różnicą, że miejsce Compaqa i całą firmę przejął HP, a firmy AST nie ma - do czołówki dołączył Sun. Obecnie na rynek trafia około sześciu milionów serwerów rocznie (tak dużą liczbę należy zawdzięczać głównie firmom Dell i HP, produkującym jedno- i dwuprocesorowe, intelowskie serwery klasy podstawowej i średniej).

HP to procesory PA RISC i x86 (serwery ProLiant), ale ostatnio firma poszerzyła swoją ofertę o systemy oparte na procesorach AMD Opteron. Dell produkuje wyłącznie serwery intelowskie klasy podstawowej i średniej. IBM był pierwszą firmą, która zdecydowała się na procesor Opteron, pozostając oczywiście wierna platformie RISC (procesory PowerPC). Sun jest właściwie synonimem platformy RISC (ze swoimi procesorami UltraSparc i systemem Solaris), chociaż ostatnio zdecydował się na podjęcie produkcji serwerów opartych na 32-/64-bitowym procesorze Opteron (AMD).


TOP 200