Czy Twoje serwery aby się nie nudzą?

Czy jesteście pewni, że Wasze serwery i sieć ciężko harują? A może jest wręcz odwrotnie i są ledwie wykorzystywane? - pyta Paul Venezia, publicysta "Infoworlda" w swoim blogu technicznym. I dodaje: Zdziwicie się, gdy poznacie prawdę.

Venezia nie tylko pisze dla "Infoworlda", ale jest również aktywnym konsultantem, więc częścią jego pracy są spotkania i seminaria, na których omawia się różne specyfikacje sprzętowe dobierane na potrzeby określonych projektów IT. Najczęściej dyskusje dotyczą urządzeń sieciowych i serwerów, a czasami także problemów związanych z równoważeniem obciążeń (load-balancing) czy bezpieczeństwem.

Na niemal każdej konferencji zdarza mu się spotkać kogoś, kto twierdzi, że jedynym rozwiązaniem, które będzie w stanie zaspokoić potrzeby IT, będzie nabycie superwydajnych 4-procesorowych serwerów, każdy wyposażony w terbajt RAM, z obsługą sieci 10GbE , 8Gb Fibre Channel itp. Jeżeli w pobliżu obecni będą handlowcy, to skwapliwie podchwycą taki tok rozumowania i zaczną gorąco zachęcać do takiego myślenia, przytaczając niesprawdzone informacje ze swoich przeładowanych marketingiem prezentacji.

Zobacz również:

  • HPE wzbogaca ofertę software-defined storage

A prawda jest taka, że aby omawiany projekt funkcjonował właściwie, wystarczy zwykle tylko 25% mocy przetwarzania, jaką oferuje proponowany jw. sprzęt.

Polecamy: Dziewięć zasad wytrawnego administratora Uniksa

Maniacy komputerowi zazwyczaj wpadają w pułapkę żądzy posiadania najnowszego i najlepszego sprzętu do obsługi tego, czym się zajmują - ostrzega Venezia. Owa pogoń za najlepszym, w połączeniu z obawą o stworzenie niedostatecznie wydajnego rozwiązania, kończy się zakupem skrzynek za 12 tys. dolarów, obsługujących potem tylko DHCP. To co prawda sprawia, że świat hardware’u się kręci i są dostępne aplikacje dla 48-rdzeniowych serwerów, lecz kupowany sprzęt, ma daleko większe możliwości niż realizacja zadań, które mu wyznaczono.

W większości wielkich korporacji nie ma prostego sposobu na określenie rzeczywistych wymogów nowej aplikacji czy usługi. Jednak w większości przypadków, żeby dokonać właściwej oceny faktycznego zapotrzebowania na moc przetwarzania - warto poszukać pasujących analogii, co znacznie może pomóc w zmniejszeniu wydatków inwestycyjnych przy nowym projekcie, nie poświęcając przy tym niczego - podpowiada Venezia. I dodaje: sprawdza się to zwłaszcza w świecie zwirtualizowanych serwerów, gdzie zasoby mogą być dodawane bezboleśnie w miarę zmieniających się potrzeb.

Dobre miejsce do wyznaczania parametrów znajduje się w szkielecie sieci. Bloger "Infoworlda" radzi: Jeżeli dotychczas nie zbierałeś danych na temat tego, jak bardzo obciążona jest twoja sieć, przestań natychmiast czytać i bierz się za to. Nie ma żadnego wytłumaczenia dla takiego zaniechania.

Polecamy: Pięć narzędzi open source do monitorowania sieci

Po zebraniu danych z kilku tygodni na temat tego, co tak naprawdę najbardziej obciąża twoją sieć, najprawdopodobniej się zdziwisz, że to nie szkielet sieci za to odpowiada. Jeżeli pracuje tu przełącznik Cabletron 100 Mb/s, to przyczyną może być ten działający zabytek. Natomiast w przypadku nowoczesnego sprzętu, przypuszczalnie dowiesz się, że przeważnie pracuje on niemal na jałowym biegu, a jego diody lekko migają podczas tworzenia kopii zapasowych. Jeżeli w zwirtualizowanej infrastrukturze używasz iSCSI, to pewnie już przekonałeś się, że pomimo występowania czasami pewnych niedoskonałości dedykowanego narzędzia sieciowego, którym się posługujesz, sieć działa bezproblemowo.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200