Polisa ubezpieczeniowa szefa IT

Materiał promocyjny Anulowanie 400 lotów i strata 20 mld USD to efekt jedenastodniowego przestoju systemu IT australijskich linii lotnicze Virgin Blue. Ten przykład dobitnie pokazuje, że awaria systemu informatycznego to nie tylko zmora zespołu IT odpowiedzialnego za jego sprawne działanie, ale jeden z najczarniejszych scenariuszy biznesowych, który prowadzi do konkretnych strat finansowych związanych z odpływem klientów, utratą szans rynkowych czy problemami z wizerunkiem. Awaria sprzętu, nagłe piki obciążenia, czy konieczność błyskawicznego zapewnienia usług biznesowych to sytuacje, w których swoistą polisę ubezpieczeniową szefa IT stanowi chmura hybrydowa.

Polisa ubezpieczeniowa szefa IT
Opisywane wyzwania dotyczą zarówno małych organizacji, jak i wpływają na funkcjonowanie dużych podmiotów dysponujących rozwiniętą i nowoczesną infrastrukturą informatyczną. Według analiz Dun & Bradstreet, 59% firm z listy Fortune 500 jest zmuszonych radzić sobie z minimum 96 minutami przestojów systemów IT w ciągu tygodnia.

Przyczyn awarii należy upatrywać m.in. w coraz większej złożoności infrastruktury informatycznej. Różnorodność oznacza bardzo wysoki poziom komplikacji, a tym samym ryzyko dla działalności operacyjnej. Dla przykładu, rozwijający się trend wykorzystania prywatnych urządzeń przez pracowników (BYOD) sprawia, że działy IT muszą dostarczyć nowe narzędzia pracy o odmiennych platformach, czy funkcjach bezpieczeństwa. Dodatkowo, na wzrost stopnia komplikacji wpływa konieczność zapewnienia kompatybilności stacji roboczych, czy serwerów. Obok awarii sprzętu należy wskazać na problemy wynikające z wad samych systemów, aplikacji i ograniczeń wydajności, czyli dostępności odpowiedniej mocy obliczeniowej. Nie chodzi zatem jedynie o awarię dysku, ale przestój kluczowej aplikacji, co wynika np. z ograniczonej ilości pamięci operacyjnej lub złej konfiguracji. Z punktu widzenia biznesu, przyczyny są drugorzędne, ponieważ brak usługi oznacza straty wpływające na wynik całego przedsiębiorstwa.

Tysiące złotych na minutę

Polisa ubezpieczeniowa szefa IT
Była godzina 7.50, kiedy serwer odpowiedzialny za sprzedaż biletów lotniczych przestał reagować. Poziom frustracji klientów, którzy odwiedzali stronę przewoźnika sięgnął zenitu. Natychmiast zareagowały media na bieżąco informując o problemach w spółce. Ograniczona sprawność systemu została przywrócona dopiero po godz. 16.00 a niska wydajność strony utrzymywała się do końca dnia. Podobna awaria to nie tylko wymyślony scenariusz biznesowy, ale konkretna sytuacja, która dotknęła wiele spółek i może przytrafić się w każdej organizacji.

W przypadku awarii sprzętu o małej skali, czyli np. awarii dysku, zespoły IT radzą sobie poprzez łączenie dysków w tzw. RAID-y – tworząc nadmiarowy system przechowywania danych. Aby podnieść poziom bezpieczeństwa zaleca się cykliczne wykonywanie kopii na zewnętrznych nośnikach, które nie są częścią macierzy, czy serwera. Procedury bezpieczeństwa wskazują również na konieczność wyniesienia ich poza lokalizację instytucji. Kopie są tworzone najczęściej na zewnętrznych dyskach twardych, nośnikach CD/DVD lub taśmach magnetycznych. Problem polega jednak na tym, że proces ręczny wiąże się z dużą ilością pracy. Dodatkowo, w sytuacji, gdy zgramy dane na taśmę, ich odtworzenie jest często nieefektywne. W przypadku zapytania o wydobycie jednego e-maila, dokumentu, czy raportu sprzed kilku lat – czas rozciąga się w nieskończoność.

Coraz częściej zespoły IT decydują się zastąpić „ręczne” rozwiązanie usługą w chmurze do archiwizacji/backup-u danych, usprawniając tym samym cały proces. Zastępuje on dobrze znany model Disk-to-Disk-to-Tape (D2D2T) wprowadzając model Disk-to-Disk-to-Cloud (D2D2C). Firma zyskuje błyskawiczny dostęp do danych archiwalnych i dodatkowo eliminuje ograniczenia i komplikacje wynikające z potrzeby transportu nośników. Ma również gwarancje, że dane są bezpiecznie przechowywane w innej lokalizacji. Co więcej, same kopie bezpieczeństwa mogą być tworzone automatycznie, w częstszych odstępach czasu i przechowywane w postaci trzech niezależnych kopii dla uzyskania większej ochrony.

Polisa ubezpieczeniowa szefa IT
W przypadku awarii sprzętu o większej skali, czyli całego serwera lub kilku serwerów, problem nie dotyczy jedynie utraty lub niedostępności danych ale również braku sprzętu. W sytuacji, gdy uszkodzony zostanie procesor, płyta główna, czy inny z elementów serwera pierwszym rozwiązaniem, po który sięgają zespoły IT jest zakup nowej części, całego serwera lub leasing w firmie hostingowej. W przypadku zakupu nowego sprzętu dział IT musi często najpierw przeprowadzić analizę potrzeb oraz przejść przez procedury przetargowe. W przypadku leasingu wyzwaniem staje się transport i odtworzenie danych a także sam proces negocjacji warunków wypożyczenia, co wpływa na czas przywrócenia sprawności produkcyjnej.

W przypadku usługi chmurowej mamy nie tylko ułatwienie archiwizacji w modelu D2D2C, ale zabezpieczamy również uszkodzenie serwera. Jeśli dane są przechowywane w chmurze możemy automatycznie uruchomić serwery produkcyjne z przeprowadzanych kopii bezpieczeństwa. Dzięki rozwiązaniu np. Microsoft Azure Site Recovery proces zachodzi całkowicie automatycznie – mówimy wtedy o swoistej usłudze Disaster Recovery as a Service (DRaaS). Odtwarzając obraz maszyny wirtualnej następuje uruchomienie systemu, aplikacji na nim zainstalowanych oraz odtworzenia danych. Dzięki chmurze archiwum staje się w pełni funkcjonalnym systemem Disaster Recovery. W przypadku awarii całej infrastruktury istnieje możliwość przeniesienia zespołu do innej lokalizacji i pracy za pośrednictwem chmury. Model kopii bezpieczeństwa w chmurze staje się niezwykle efektywny także ze względu na fakt, iż coraz częściej firmy zatrudniają pracowników mobilnych, którzy w biurze pojawiają się stosunkowo rzadko. Dzięki chmurze, bez względu gdzie znajduje się mobilny pracownik, może on synchronizować swoje dane z systemem kopii bezpieczeństwa, dzięki czemu nawet utrata laptopa nie oznacza poważnej awarii, gdyż dane można szybko odzyskać.

Pokonać „szczyt” po niskich kosztach

Polisa ubezpieczeniowa szefa IT
Każdy szef informatyki z praktyki doskonale wie, iż obciążenie infrastruktury generowane przez aplikacje nie przebiega w sposób liniowy. Nie ma firmy, która nie doświadcza cyklicznych, przewidzianych lub nie – pików obciążenia, sięgających w wielu przypadkach nawet kilkuset procent. Problemy nie wynikają zatem z braku świadomości zespołów IT, ale konieczności sprostania bardzo agresywnej polityce optymalizacji kosztów. Dyrektorzy Finansowi wywierają presję na to, by infrastruktura informatyczna była jak najtańsza. Wyzwaniem nie jest zatem stworzenie bezpiecznego środowiska poprzez zapewnienie wielokrotnie większej mocy obliczeniowej, ale utrzymania odpowiedniej wydajności środowiska przy ograniczeniach finansowych.

W przypadku, gdy obciążenia poszczególnych systemów występują w różnym czasie, możliwość optymalizacji daje technologia wirtualizacji, która pozwala uruchamiać wiele serwerów logicznych współdzielących moc serwera fizycznego. Nie możemy jednak wykluczyć przykładowej sytuacji, w której jednocześnie dział księgowy rozpocznie analizy bilansu, a marketing uruchomi świąteczną promocję. Realia biznesowe często pokazują, że poszczególne działy stanowią odrębne silosy, które nie synchronizują działań i nie wymieniają informacji. Piki obciążenia dwóch głównych aplikacji w tym samym czasie mogą w sytuacji wyjątkowej doprowadzić do wysycenia zasobów IT czego efektem będzie brak dostępności aplikacji.

Biorąc pod uwagę perspektywę finansową i organizacyjną, w wielu przypadkach korzystnym rozwiązaniem okazuje się chmura hybrydowa. W przypadku średniego obciążenia, aplikacje biznesowe mogą być obsługiwane w lokalnym Data Center, a dopiero w sytuacji wzmożonego ruchu następuje rozszerzenie infrastruktury z wykorzystaniem nieograniczonych zasobów chmury publicznej. Przykładów zastosowania tego typu architektury jest wiele, począwszy od rejestracji np. przedszkolaków lub studentów, sprzedaży biletów na różnorodne wydarzenia np. mecze lub koncerty, czy w momencie rozliczania wykorzystania usług na potrzeby wygenerowania bilingów przez firmę energetyczną. W przypadku pików obciążenia migracja usług czy maszyn wirtualnych pomiędzy chmurami może odbywać się automatycznie lub sam szef IT może podjąć decyzję o wcześniejszym przeniesieniu zasobów do chmury, by uniknąć problemów z dostępnością.

Niezwykle istotna w procesie uruchomienia i wykorzystania chmury hybrydowej jest automatyka i sprawne zarzadzanie procesem migracji między chmurą prywatną a publiczną. Microsoft System Center pozwala na monitorowanie obciążenia aplikacji w lokalnym Data Center i w przypadku wykrycia wzmożonej aktywności pozwala przenieść wybrane aplikacje bądź ich części do chmury publicznej. System Center monitoruje obciążenie lokalnej infrastruktury i dla przykładu, definiuje parametry procesora maszyny utrzymującej konkretną aplikację w taki sposób, by przy obciążeniu na poziomie 70% rozpocząć proces migracji aplikacji do chmury aby pozostałą ona dostępna nawet przy stale rosnącym obciążeniu. Istnieje także możliwość ustalenia harmonogramu przenoszenia aplikacji pomiędzy chmurami, np. w konkretnych dniach czy tygodniach.

Uruchomienie aplikacji w trybie High Speed

Polisa ubezpieczeniowa szefa IT
Jedna z firm podjęła decyzję o wdrożeniu systemu Business Intelligence, który umożliwiłby kierownictwu najwyższego szczebla szybkie tworzenie raportów menadżerskich dotyczących statusu jej działalności. Zarząd zwracał szczególną uwagę na opracowanie analiz na podstawie danych historycznych. Wstępne szacunki określone przez zespół IT wskazały na konieczność zakupu wydajnego serwera oraz niezbędnego oprogramowania. W celu uruchomienia projektu, firma musiała dokonać inwestycji w sprzęt i oprogramowanie inicjując wewnętrzne procedury przetargowe. Projekt już na starcie natrafił na duże bariery wejścia związane z wydatkami. Dział IT nie miał również całkowitej pewności, czy będzie to przydatne narzędzie dla zarządu, czy członkowie zaczną z niego efektywnie korzystać. Szef IT podjął decyzję o realizacji projektu pilotażowego przy wykorzystaniu chmury publicznej Microsoft Azure. Za moc obliczeniową i oprogramowanie firma płaciła w ujęciu minutowym w związku z czym zniknął problem bariery wejścia. W celu dodatkowej optymalizacji kosztów system raportów Business Intelligence uruchomiony był tylko w dni robocze, w godzinach 8 -17. Realizując projekt pilotażowy w oparciu o chmurę publiczną firma nie poniosła dużych inwestycji, szybko wprowadziła usługę i sprawdziła zasadność wdrożenia oprogramowania. Dodatkowo, dzięki modelowi „płatności za wykorzystane zasoby” mogłaby w prosty sposób wyjść z inwestycji w przypadku jego porażki. W przypadku niezadowalających opinii na temat usługi ze strony użytkowników, istniała opcja natychmiastowej rezygnacji z usługi bez żadnych konsekwencji i problemów z posiadaniem zakupionego na potrzeby projektu sprzętu i licencji. Po założonych 3 miesiącach testów, które okazały się sukcesem, firma rozpoczęła standardową procedurę przetargową zakupu infrastruktury. Dzięki kompatybilności chmury publicznej z chmura prywatną, migracja systemu sprowadziła się do przeniesienia obrazów maszyn z chmury publicznej do w lokalnego Data Center.

W przypadku projektu uruchomienia nowej aplikacji strona biznesowa zobligowana jest określić swoje potrzeby definiując zakres wymagań funkcjonalnych. Na tej podstawie dział IT powinien odpowiednio zwymiarować infrastrukturę, jaka będzie potrzebna do utrzymania aplikacji. I tu pojawia się mnóstwo niewiadomych i zmiennych ponieważ aplikacja podczas jej tworzenia często ewoluuje, co zmienia wcześniejsze założenia. W przypadku chmury publicznej infrastruktura uruchomiona na potrzeby aplikacji może być dynamicznie skalowana dzięki czemu zadanie wymiarowania przestaje być krytycznym elementem całego procesu. Dopiero po zakończeniu prac nad aplikacją i przeprowadzeniu testów obciążenia dział IT, znając wymagania sprzętowe, może z łatwością podjąć decyzję o zakupie odpowiedniego sprzętu lub pozostawieniu aplikacji w chmurze publicznej.

As w rękawie szefa IT

Awaria, pik obciążenia, czy wprowadzenie nowej usługi to momenty, kiedy wszystkie oczy zwracają się ku departamentowi IT. Wówczas stawką nie jest jedynie jego dobre imię, ale konkretne straty lub zyski finansowe. Chmura hybrydowa to „as w rękawie” szefa informatyki, który może być wyciągnięty wówczas, gdy pojawia się nieprzewidziane wyzwanie lub sytuacja szczególna. Utworzenie chmury hybrydowej wymaga połączenia własnych zasobów z infrastrukturą chmury publicznej, co wbrew pozorom nie wiąże się z żadnym kosztem czy inwestycją gdyż za zasoby chmury publicznej płacimy jedynie w sytuacji ich faktycznego wykorzystania. W ten sposób firma zamawia polisę ubezpieczeniową, która jest wykorzystywana w momencie zdarzenia czy pojawienia się nowych potrzeb biznesowych.


Maciej Sobianek,
Technology Strategist, Microsoft sp. z o.o.