Tańsze przesyłanie

Optymalizacja kosztów telekomunikacyjnych powinna obejmować również obszar transmisji danych.

Optymalizacja kosztów telekomunikacyjnych powinna obejmować również obszar transmisji danych.

Gdy w firmie wszystkie wykorzystywane systemy i aplikacje działają na podstawie rozwiązań telekomunikacyjnych ściśle dopasowanych do aktualnych potrzeb, aczkolwiek dających się łatwo zmodyfikować, to można powiedzieć, że firma posiada prawidłowo skonstruowane struktury transmisji danych.

Jak osiągnąć takie optimum? Z jednej strony, rynek wymusza ciągłe poszukiwanie oszczędności, z drugiej zaś, od jakości działania sieci zależy praca najważniejszych systemów. Wiadomo że jakiekolwiek zmiany związane z obniżaniem parametrów transmisyjnych czy jakościowych zazwyczaj kończą się falą skarg użytkowników.

Często mamy do czynienia z sieciami zaprojektowanymi źle lub wg założeń sprzed kilku lat. Dążenie do elastyczności sieci, zarówno w obszarze potrzeb biznesowych firmy, jak i adaptowalności do zmian ofert operatorów, jest podstawową przyczyną powstawania wysokich kosztów.

Oczywiście, winą zawsze możemy obciążyć wysokie ceny usług telekomunikacyjnych w Polsce, ale niezależnie od tego, czy to prawda, większość sieci może pracować taniej dzięki zwiększeniu ich efektywności. Warto przy tym pamiętać, iż optymalizowania musimy dokonywać albo sami (zabezpieczając możliwość zmian w kontraktach z operatorami), albo zlecać usługi integratorom, którzy w modelu outsourcingu przejmują pełną odpowiedzialność również za tę sprawę.

Problemy z infrastrukturą

Analiza różnych infrastruktur transmisji danych pozwala stwierdzić, że najczęstszym problemem jest przewymirowanie sieci. Oglądając charakterystyki ruchu dla poszczególnych segmentów sieci, często obserwujemy nazbyt wysoki wskaźnik jej niewykorzystania. Wynika to z braku informacji o wolumenie transmitowanych danych czy wymaganych parametrach ze strony aplikacji. Na ogół jest dostępny jedynie statystyczny charakter transmisji, czyli ogólnie mówiąc, duża nieokreśloność na etapie projektu.

Przy projektowaniu możliwe jest tylko określenie w sposób szacunkowy wymaganych parametrów poprzez zbudowanie prototypu sieci lub symulację w laboratorium. Każdy sposób jest obciążony pewnym błędem oraz wiąże się z określonymi kosztami. Najtańszą metodą, najbardziej jednak zawodną, jest próba szacunkowych obliczeń. Najdroższą, ale za to najbardziej dokładną, jest zbudowanie prototypu. Stąd też potrzeba ciągłego procesu realizacji niezbędnych korekt w trakcie eksploatacji sieci. Proces ten sprowadza się do kilku kroków: gromadzenia danych, szeroko rozumianej optymalizacji i implementacji.

Kolejnym ważnym problemem jest niska jakość usług, wynikająca z niedowymiarowania pojedynczego komponentu sieci, generującego tzw. wąskie gardło, lub brak zaimplementowanych mechanizmów QoS. Problem ten powstaje również w wyniku generalizowania na etapie projektu lub stosowania tzw. sprawdzonych rozwiązań. Tymczasem łącze o zbyt niskiej przepustowości czy urządzenie o zbyt małej wydajności może znacznie spowolnić działanie całej sieci. Na pojawienie się problemu niskiej jakości składają się również źle zaprojektowane systemy i bazy danych.

Problemem jest również wysoka awaryjność sieci. Oczywiście, każdy oczekuje jak najwyższej jakości za najmniejsze pieniądze. Wysoka dostępność sieci jest konieczna (brak komunikacji to często wysokie utracone korzyści), ale nie zawsze dostępność musi być taka sama dla całej sieci, nie zawsze również musi wiązać się z płatnym rozwiązaniem backupowym, które oczywiście znacznie podnosi koszty.

Podobnie jest z mechanizmami bezpieczeństwa zaimplementowanymi w sieci. Zła polityka bezpieczeństwa podnosi koszty i zwiększa wykorzystanie komponentów sieci. Często projekt nie zakłada wykorzystania mechanizmów separacji czy szyfrowania dostarczanych przez operatora telekomunikacyjnego (co mogłoby być tańsze), nie przedstawia również dokładnej analizy bezpieczeństwa i ryzyka dla konkretnej architektury sieci.

Polityka bezpieczeństwa jest jednak rzeczą, którą firmy muszą implementować, gdyż kradzież danych lub zaprzestanie świadczenia usługi (DoS) mogą przynieść katastrofalne skutki finansowe. Ochrona danych osobowych jest wymogiem prawnym i ich utrata może mieć poważne implikacje finansowe dla instytucji, która je przechowuje.

U podstaw tych i większości innych problemów leży brak lub błędna konfiguracja narzędzi administracyjnych i monitorujących w powiązaniu z brakiem doświadczenia w ich użytkowaniu.

Źródła kosztów

Głównym czynnikiem kosztotwórczym jest abonament za łącza transmisji danych (WAN, łącza zapasowe oraz dostępowe do Internetu). Dochodzą do tego koszty utrzymania sieci (serwisy urządzeń, warunki SLA, uaktualnianie oprogramowania). Istotny jest również sposób pozyskania urządzeń. W przypadku zakupu pod uwagę będzie brana amortyzacja, zaś outsourcingu - koszt abonamentowy. Konieczne jest również przeanalizowanie faktycznych kosztów własnych (szkolenie personelu, administracja siecią, utrzymanie własnych służb serwisowych czy logistycznych).

Ostatnim ważnym elementem jest koszt rozwoju firmy, a więc rozwoju sieci (zakup łączy, podwyższanie parametrów transmisyjnych, zakup sprzętu, zmiana oprogramowania, podwyższanie SLA). Warto przy tym zwrócić uwagę, czy rozbudowa sieci przebiega wg określonego schematu, czy też rozwiązanie jest dobierane indywidualnie. Warto przy analizie kosztów bardzo dokładnie je posegregować (koszt podstawowej komunikacji, koszty backupu i SLA, koszty bezpieczeństwa, koszty personalne, koszty upgradów itp.).

Do przeprowadzenia analizy oraz wdrożenia efektywnych zmian są niezbędne: spory zasób wiedzy z różnych dziedzin telekomunikacji oraz dobra znajomość rynku teleinformatycznego. Proces optymalizacji zakłada - oprócz minimalizacji kosztów - przede wszystkim dopasowanie struktur transmisji danych do faktycznych potrzeb. Dlatego przydatne okazuje się tutaj doświadczenie z wdrażania zintegrowanych projektów informatycznych i telekomunikacyjnych.

Ceny usług telekomunikacyjnych spadają z roku na rok i wbrew obiegowym opiniom rynek w Polsce również podąża tą drogą. Dodatkowo stosowane technologie ulegają dynamicznym zmianom, warto je więc śledzić i analizować, gdyż często umożliwiają podniesienie jakości sieci przy obniżeniu kosztów.

Do niedawna "czas życia" rozwiązań sieciowych wynosił ok. 7 lat, tzn. rozwiązanie sieciowe starzało się moralnie w tym okresie i należało je zastąpić nowym. Obecnie wprowadzanie szeroko pojętych technologii VPN w znacznej mierze uniezależnia użytkowników od rozwiązań teletransmisyjnych na rzecz dostępu do usług. Klienci są bardziej zainteresowani uzyskaniem dostępu do usług o ustalonych kosztach i parametrach określonych w SLA niż samą budową sieci (dobrym przykładem może być tutaj dostęp do bazy danych znajdującej się w innej lokalizacji przy zakładanym czasie dostępu i zdefiniowanej procentowo awaryjności bez względu na to, przez jakiego operatora i w jakiej technologii zostanie to zrealizowane. Konsekwencją takiej wirtualizacji będzie uniezależnienie dostępu do usług od rodzaju łączy dostępowych. Możliwe zatem będzie dokonywanie znacznie częstych optymalizacji sieci niż dzisiaj i to w taki sposób, by zmiany były niezauważalne dla użytkowników końcowych.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200