Więcej za mniej

Jak obniżyć koszty działów informatycznych, zachowując poziom ich usług na nie zmienionym poziomie.

Jak obniżyć koszty działów informatycznych, zachowując poziom ich usług na nie zmienionym poziomie.

W okresie dobrej koniunktury nie myśli się o oszczędnościach. Potrzeby biznesowe są duże, działy IT prowadzą zazwyczaj kilka projektów jednocześnie. Permanentny brak czasu skłania raczej do wyboru rozwiązań najwygodniejszych, a nie najtańszych. Doraźnym celom jest także podporządkowywana polityka personalna. Racjonalizacji ekstensywnego rozwoju sprzyjają okresy spowolnienia gospodarczego. Gdy gorączka projektów opada, więcej czasu można poświęcić na analizę źródeł potencjalnych oszczędności. Wbrew pozorom, jest ich niemało.

Zanim wydasz pieniądze

Trudne czasy dotknęły również dostawców technologii. "Rynek jest coraz trudniejszy" - powtarzają zgodnie. Co zrozumiałe, dostawcy wolą obniżać marże, niż ograniczać sprzedaż. Dla klientów to szczególna okazja. Dobrym okresem do negocjacji są zwłaszcza te, przypadające na koniec kwartałów roku finansowego. Wtedy sprzedawcom wyjątkowo zależy na realizowaniu kontraktów.

Godnym polecenia rozwiązaniem jest podpisywanie z dostawcami umów ramowych. Dzięki nim koszt zakupu technologii można, w zależności od wielkości firmy, zredukować o 15, a nawet 30%. Umowy ramowe znajdują się w ofercie wszystkich liczących się dostawców oprogramowania i sprzętu. Chętnie podpisują je także operatorzy GSM. W tym ostatnim przypadku do wyboru jest kilka opcji, m.in. hurtowy zakup minut po cenie niższej niż standardowa czy tańsze połączenia między numerami firmowymi.

Staranniejsza ocena zasadności inwestycji przed dokonaniem zakupu może także być istotnym źródłem oszczędności. Dla przykładu, słaba wydajność serwera niekoniecznie musi mieć podłoże sprzętowe. W ponad połowie przypadków za kiepską wydajność odpowiedzialne jest niewłaściwie skonfigurowane oprogramowanie. Dotyczy to zwłaszcza baz danych, choć także aplikacji ERP czy wielowarstwowych serwisów WWW. Wydatek poniesiony na szkolenie z zakresu strojenia wydajności jest z reguły ułamkiem kwoty, jaką trzeba wydać na nowy serwer czy macierz dyskową.

Podobnie jest z aktywnymi urządzeniami sieciowymi. Przyczyną słabej wydajności sieci często bywa jej nieprawidłowa segmentacja, a także brak priorytetów dla ruchu o różnym stopniu ważności. Przed zakupem nowych urządzeń warto sprawdzić działanie alternatywnych rozwiązań, ale również przeprowadzić "nasłuch" ruchu w istniejącej sieci przy użyciu specjalistycznego sprzętu. Nie trzeba go od razu kupować - na rynku działa wiele firm specjalizujących się w analizie ruchu. W ostateczności można ręcznie ograniczyć ruch w sieci, blokując np. możliwość przesyłania pocztą dużych załączników albo ograniczając pasmo dostępne dla usług WWW.

Scalaj, unifikuj

Powszechna informatyzacja biznesu w Polsce rozpoczęła się w momencie, gdy świat zachwycał się architekturą klient/serwer. Historia zatoczyła jednak koło i dzisiaj nikogo nie trzeba przekonywać, że scentra- lizowane przetwarzanie jest tańsze, zwłaszcza w dłuższym okresie.

W architekturze scentralizowanej logika aplikacji i dane są przechowywane na serwerze. Dostęp do niego odbywa się za pośrednictwem terminalu, którego rola ogranicza się do wyświetlania operacji realizowanych na serwerze. Podstawową korzyścią z centralizacji przetwarzania jest możliwość zrezygnowania z drogich i stosunkowo często wymienianych stacji roboczych. Cykl "życia" terminali, których moc przetwarzania nie ma zazwyczaj większego znaczenia, wynosi 5, 6 lat, a więc około dwóch razy więcej niż przeciętnego PC. Gdzieniegdzie do łask wracają terminale znakowe, większość klientów jednak bierze pod uwagę już tylko terminale graficzne. W praktyce na rynku liczą się trzy z nich: Microsoft Terminal Services (serwer dla Windows, klient dla Windows i Linuxa), Citrix MetaFrame (serwer dla Windows i Solaris, klienci dla prawie wszystkich istniejących platform) oraz X Server (wszystkie środowiska Unix i Linux).

Na tym nie koniec oszczędności. Dzięki centralizacji przetwarzania problem pomocy zdalnym użytkownikom praktycznie przestaje istnieć. W razie awarii sprzętu wystarczy podłączyć do sieci nowy terminal i kontynuować pracę, często nawet nie przerywając sesji z serwerem. Zastosowanie technologii terminalowej sprawia, że aktualizowanie oprogramowania trwa kilka minut. Uzyskanie zbliżonej funkcjonalności w architekturze klient/serwer wymaga zakupu oddzielnego oprogramowania, np. Microsoft Systems Management Server, Symantec pcAnywhere czy Novell ZENworks.

Centralizacja to również konsolidacja, czyli zrezygnowanie z oddzielnych systemów na rzecz jednej, centralnej instalacji. Konsolidacja jest stosunkowo łatwa do przeprowadzenia na poziomie sprzętu, systemu operacyjnego, a nawet bazy danych. Barierą okazuje się zazwyczaj aplikacja. Programy stworzone do pracy wyłącznie w sieciach lokalnych zazwyczaj słabo się skalują i nie umożliwiają pracy w technologii klastrowej, nieuniknionej przy centralizacji. Konsolidacja może więc wymagać zmiany aplikacji. Rezygnacja z rozproszenia wymaga też stworzenia systemu niezawodnej łączności, a to oznacza dodatkowy wydatek na urządzenia sieciowe i comiesięczne wydatki za dzierżawę łączy. Mimo to w dłuższym okresie konsolidacja może być źródłem oszczędności. Po pierwsze, dlatego że administrowanie jednym systemem jest tańsze niż wieloma, zwłaszcza rozproszonymi geograficznie. Dzięki konsolidacji w wielu przypadkach jest możliwe zrezygnowanie z zatrudniania lokalnych informatyków.

Kolejna oszczędność z konsolidacji to niższy koszt zakupu licencji. Jeżeli cena oprogramowania ustalana jest w zależności od liczby serwerów, to wystarczy kupić jedną licencję, a nie np. pięć. Oszczędności można uzyskać nawet wtedy, gdy koszt oprogramowania (np. większość baz danych) jest uzależniony od liczby procesorów serwera. Bazy danych Oracle, Informix i DB2 działają na wszystkich liczących się platformach serwerowych. Można więc pokusić się o zbadanie, która z platform w konkretnym zastosowaniu daje największą wydajność.

W pojęciu centralizacji mieści się także zdalne zarządzanie infrastrukturą informatyczną firmy: serwerami, macierzami, przełącznikami, bibliotekami taśmowymi, drukarkami, zapasowymi i stacjami roboczymi. Takie podejście jest szczególnie korzystne w firmach utrzymujących kilkaset lub kilka tysięcy stanowisk komputerowych. W Polsce jest już wiele przykładów przedsiębiorstw, które dzięki scentralizowanemu zarządzeniu infrastrukturą odniosły korzyści finansowe i organizacyjne. Z oferowanego przez HP systemu OpenView korzystają m.in. bank PKO BP, Polkomtel, Polska Telefonia Cyfrowa, Górnośląski Zakład Energetyczny i Rafako SA. Konkurencyjny produkt IBM - system Tivoli - działa m.in. w PTK Centertel i Volvo Poland.

Centralizacja jest dobrą okazją do unifikowania platform sprzętowych, systemowych i bazodanowych w skali firmy, co także ma wpływ na obniżenie kosztów.

Szukaj zamienników

Znaczne oszczędności w wydatkach na informatykę można poczynić decydując się na tańsze lub darmowe zamienniki programów komercyjnych. Spora część to oprogramowanie dostępne na zasadach - nie tylko na platformę Linux. Wiele użytecznych programów jest dystrybuowanych jako shareware. Ich aktualizowanie do wersji komercyjnej to najczęściej wydatek rzędu kilkudziesięciu dolarów.

Wartości serwera Apache do zastosowań intra- i internetowych nie ma sensu udowadniać, ponieważ jest to de facto standard. Korzystanie z open source można rozpocząć od zmiany serwera plików i wydruków. Serwery wykorzystujące platformy komercyjne można zastąpić darmowym pakietem Samba, działającym na platformie Linux. Współpracuje on ze stacjami roboczymi i serwerami, pracującymi pod kontrolą wszystkich popularnych systemów operacyjnych.

Kolejny obszar to poczta elektroniczna i praca grupowa. Zastosowanie systemów open source po stronie serwera nie zmusza użytkowników do rezygnowania z ulubionych klientów pocztowych, np. Outlook, Outlook Express czy Netscape Mail. Większość z nich obsługuje wszystkie najważniejsze standardy pocztowe (m.in. SMTP, IMAP4, POP3, MIME, LDAP). Interesującą propozycją w tej dziedzinie jest wchodzący właśnie na rynek system Caldera Volution Messaging Server. Choć jest to produkt komercyjny, Caldera udostępnia jego kod źródłowy na życzenie. Użytkownicy programu Outlook mogą korzystać z jego centralnej książki adresowej i wymieniać dane z kalendarza. System umożliwia też m.in. zdalny, szyfrowany (SSL) dostęp do poczty przez przeglądarkę. Volution Messaging Server zawiera funkcje filtrowania niechcianej korespondencji. Współpracuje z zewnętrznym darmowym (np. Hylafax, efax) oraz komercyjnym oprogramowaniem faksowym i anty-wirusowym (McAfee).

Wśród produktów open source są również bazy danych. Serwer PostgreSQL jest na tyle zaawansowany i stabilny, że firma Red Hat oferuje go pod swoją marką - Red Hat Database. Oczywiście z pełnym wsparciem technicznym. Według wielu programistów, wydajność i bezpieczeństwo bazy PostgreSQL w niektórych zastosowaniach nie ustępują produktom komercyjnym. Z kolei baza MySQL, choć funkcjonalnie uboższa niż bazy komercyjne, od większości z nich pracuje szybciej. Ta cecha powoduje, że często jest ona wykorzystywana do przechowywania danych w serwisach WWW.

Ciekawych i konkurencyjnych rozwiązań open source jest znacznie więcej. Za ich pomocą można budować aplikacje terminalowe, klient/serwer i WWW (np. PHP). Zapewniają one wsparcie Javy i XML (Netscape). Umożliwiają tworzenie klastrów. Wiele z nich to zaawansowane narzędzia administracyjne o funkcjonalności nie gorszej niż komercyjne systemy kosztujące tysiące dolarów (np. MRTG - oprogramowanie do analizy wydajności sieci). Są też pakiety biurowe, obsługujące polskie znaki diakrytyczne (Star-Office, KOffice).

Inwestycja w rozwiązania typu open source to dla wielu menedżerów informatyki decyzja trudna. Być może dlatego że wymaga nie tyle pieniędzy, ile czasu i zaangażowania. Jednym z najczęstszych argumentów przeciwników open source jest to, że formalnie nikt nie odpowiada za poprawność działania darmowych programów. Jednak nie sposób nie dostrzegać, że w Polsce jest już sporo firm informatycznych, gotowych wziąć odpowiedzialność za poprawne funkcjonowanie rozwiązań open source wdrożonych w przedsiębiorstwach.


TOP 200