Agent z lornetką

W najlepszym z najgorszych scenariuszy agent może mieć wpływ na obniżenie wydajności systemu. "Obciążenie generowane za pomocą agenta jest ściśle powiązane z powierzonymi mu zadaniami. Jeśli np. agent ma monitorować wszystkie parametry systemu operacyjnego oraz działające na nim bazy danych Oracle, to z pewnością odbije się to na wydajności systemu. Jednak w standardowych przypadkach obciążenie nie przekracza kilku procent wydajności procesora i kilkudziesięciu megabajtów pamięci operacyjnej. Zazwyczaj nie stanowi to problemu" - wyjaśnia Marcin Płoszczyński.

Przyznaje on jednak, że w ekstremalnych przypadkach agent może przyczynić się do znacznego spowolnienia pracy systemu lub nawet jego zawieszenia. "Może to mieć miejsce na skutek złej konfiguracji agenta albo niestabilności całego środowiska, np. nagłego odcięcia prądu" - mówi Marcin Płoszczyński. "Jednak poprawnie skonfigurowany, pozostaje dla systemu niezauważalny" - zapewnia.

Czy jest bezpiecznie?

Oczywiście systemy działające bez agentów - przyznają to nawet najwięksi ich zwolennicy - nie stanowią uniwersalnego lekarstwa na wszelkie dolegliwości. Monitorowanie pojedynczych serwerów lub farm, na które składa się niewielka liczba maszyn, może okazać się bardziej efektywne przy zastosowaniu tradycyjnego rozwiązania.

Rozwiązania bazujące na standardowych protokołach nie nadają się także tam, gdzie konieczne jest monitorowanie niestandardowych parametrów. To zresztą jeden z najczęstszych zarzutów wysuwanych pod adresem systemów tego typu. Zdaniem ich producentów zarzut w ostatnich latach nieco się zdewaluował. Przyznają, że zastosowanie agenta daje o wiele większe możliwości, ale bardzo szybko dodają, że zbyt duża liczba parametrów powoduje szum, w którym giną najistotniejsze dane. Zwracają także uwagę, że w ciągu ostatnich kilku lat coraz większa liczba producentów oprogramowania decyduje się na wbudowanie do swoich produktów interfejsów, które umożliwiają zbieranie ogromnej liczby informacji.

Inny często spotykany zarzut dotyczy znaczącego obciążenia sieci powodowanego przez ruch generowany przez serwer odpytujący urządzenia. Wielkość tego ruchu zależy przede wszystkim od liczby monitorowanych parametrów - wielkość "paczki" z danymi może wahać się od kilku bajtów do dziesiątek kilobajtów. Obciążenie zależy też oczywiście od częstotliwości odpytywania systemów. W trakcie konfigurowania systemu ustala się także interwały, w jakich przesyłane są informacje, oraz różnicuje je, by równomiernie rozłożyć obciążenie w czasie. Według przedstawicieli producentów wpływ systemu na sieć jest pomijalny.

"Obciążenie sieci i samych maszyn nie przekracza jednego procenta. To dużo mniej niż w przypadku agenta" - zapewnia Lubomir Stojek.

Argumenty wysuwane przeciwko systemom wykorzystującym standardowe protokoły dotyczą również zagrożeń dla bezpieczeństwa organizacji. Jednak dostęp do monitorowanego systemu Windows za pośrednictwem NetBIOS jest przyznawany serwerowi wyłącznie po podaniu nazwy użytkownika i hasła. W przypadku systemów unixowych (ale także Windows) możliwe jest wykorzystanie bezpiecznej technologii SSH (Secure Shell).

Natomiast użycie np. SNMP wymaga jedynie odpowiedniego skonfigurowania systemu, m.in. ustawienia monitora do wykonywania tylko operacji odczytu danych oraz zastosowania list dostępu ACL (Access Control List), które umożliwiają dostęp wyłącznie wymienionym explicite urządzeniom. Zastosowanie dodatkowo systemu wykrywania włamań pozwala na błyskawiczne wychwycenie wszelkich prób nieautoryzowanego dostępu.

Trudniej rozprawić się jednak z zarzutami dotyczącymi pojedynczego punktu awarii systemu.

W momencie awarii głównego serwera przedsiębiorstwo traci cały system monitorowania. Rozwiązania zbudowane w konkurencyjnej architekturze ograniczają możliwości śledzenia sytuacji, jednak dane o pracy urządzeń, działający na nim agent zapisuje lokalnie i w chwili ponownego uruchomienia serwera uzupełnia je. Podobny skutek ma także zerwanie łączności pomiędzy serwerem a monitorowanym urządzeniem. Jeśli w tym momencie następuje awaria systemu, agent może podjąć zautomatyzowane działania naprawcze.

Ostrożny meldunek

Biorąc pod uwagę wszystkie za i przeciw, trudno jednoznacznie określić, która architektura jest lepsza. Idealnym rozwiązaniem wydają się systemy hybrydowe, które łączą w zależności od potrzeb elementy obydwu rodzajów systemów. Prawdopodobnie do nich należy przyszłość rynku. Nie wydaje się to zbyt ryzykowne stwierdzenie, wziąwszy pod uwagę, że w tym właśnie kierunku zmierza obecnie Microsoft.


TOP 200