Trudna droga do chmury

Usługi cloud computing są już standardem, ale niestety, w polskich przedsiębiorstwach nadal jest to rzadkość. Jednym z powodów jest mentalność decydentów.

Usługi świadczone w modelu cloud powoli torują sobie drogę do polskich przedsiębiorstw, przy czym rzadko mamy do czynienia z rzeczowymi, technologicznymi przeciwnościami. Jednym z najczęściej powtarzających się zarzutów wobec chmury jest brak zaufania do usługodawcy. To prawda, że usługodawca w modelu cloud, hostujący prosto skonfigurowane maszyny wirtualne, może mieć dostęp do danych tam składowanych. Należy jednak pamiętać, że podobny zarzut dotyczy także zewnętrznej firmy, która obsługuje środowisko firmowe zlokalizowane w serwerowni przedsiębiorstwa. Zatem z samego faktu przeniesienia danych nie wynika automatycznie zagrożenie dla firmy.

Bariera mentalna jest na tyle mocna, że nie działają na nią nawet zapisy w umowach, które zakładają bardzo wysokie kary za ujawnienie stronom trzecim lub wykorzystanie informacji klienta przez operatora hostingowego. W obliczu silnej konkurencji na rynku hostingu logika nakazuje dbałość o dane klienta, gdyż nieuczciwość prowadzi do bankructwa usługodawcy.

Zobacz również:

  • Cyfrowa transformacja z AI - co nowego na Google Cloud Next 24
  • Cisco i Microsoft transmitują dane z prędkością 800 Gb/s
  • Kwanty od OVHCloud dla edukacji

Czy na pewno to będzie działać?

Kolejnym zarzutem wobec chmury jest obawa o dostępność usług i składowanych informacji. To prawda, że osiągnięcie klasy czwartej, "czterech dziewiątek" (99,99%, czyli nieco mniej niż godzina przerwy w roku) jest problemem dla wielu operatorów hostingowych, ale to samo dotyczy usług świadczonych wewnętrznie przez dział IT w przedsiębiorstwie. Aby można było mówić o świadczeniu usług IT przez dział lokalny z wymaganą dostępnością, należy zapewnić kompletną infrastrukturę na całym torze transmisji danych. Tymczasem mało firm ma sieć komputerową (nawet LAN) zaprojektowaną pod kątem wysokiej dostępności. Oczekiwanie wyższej dostępności usługi hostowanej przez podmiot zewnętrzny od rzeczywistej dostępności zasobów, które mogą z niej skorzystać, jest częste w polskich warunkach.

Podstawowym argumentem przeciw hostowaniu usług na zewnątrz przedsiębiorstwa jest fakt uzależnienia od łączy internetowych. Dotyczy to obu stron - od operatora hostingowego, przez jego dostawcę łączy i punkty styku między operatorami, aż do "ostatniej mili" operatora, czyli łączy wiodących do klienta usługi. Operatorzy hostingowi mają odpowiednią infrastrukturę, zazwyczaj redundantną, to samo dotyczy operatorów łączy, zatem problem dotyczy głównie ostatniego etapu - od sieci szkieletowej operatora dostarczającego łącze klientowi, do przyłącza w budynku. Jeśli przedsiębiorstwo wymaga wysokiej dostępności usług, musi skorzystać z dwóch łączy, prowadzonych różnymi drogami. Niekiedy łącze rezerwowe wykonuje się w innej technologii, na przykład jako radiolinię. Dopiero taka inwestycja sprawi, że będzie można w pełni wykorzystać dostępność usługi, którą oferują dostawcy hostingu. Niestety, wiąże się to z wyższymi kosztami, które trzeba uwzględnić przy planowaniu migracji.

Pożar w serwerowni

Firmy, które podnoszą problem zagrożenia dla informacji przechowywanych w chmurze, rzadko mają wystarczające zabezpieczenia we własnej serwerowni. Zatem porównywanie ryzyka związanego z utratą danych spowodowaną przez pożar u dostawcy usługi do pożaru w lokalnej serwerowni jest dość trudne, gdyż dostawca z jednej strony ma wiele maszyn, zatem prawdopodobieństwo pożaru jest wyższe, ale z drugiej strony wyposaża swoje data center w odpowiednie mechanizmy detekcji pożaru w jego wstępnej fazie. Tego mała firma nie kupi, gdyż wydatek związany z systemami analizującymi zasysane powietrze (Vesda, TopSens2, Stratos) nie jest uzasadniony ekonomicznie. Tymczasem duży operator hostingowy może zainwestować w profesjonalny detektor dymu o wysokiej czułości, gdyż w ten sposób wykryje wczesną fazę zagrożenia. To samo dotyczy systemów gaszenia pożaru, których koszt rozkłada się na wielu klientów usługi hostingowej.

Opór materii

Bardzo silny opór przed korzystaniem z technologii cloud computing stawia sam dział IT. Administrator zdaje sobie sprawę, że po przeniesieniu obsługi do firmy zewnętrznej jego praca musi ulec zmianie - część ludzi z działu stanie się niepotrzebna, gdyż ich zadania przejmie podmiot zewnętrzny. Logicznym następstwem jest opór przed działaniami, które mogą skutkować zagrożeniem jego miejsca pracy. Przeciwieństwem jest działanie pracownika we własnym środowisku, które dobrze zna i w większości przypadków nie grozi mu zwolnienie z pracy. Jednocześnie potrzebuje szkoleń, nowego sprzętu, wykonuje różne zadania, którymi może się pochwalić.

Uruchamianie obsługi nowego procesu biznesowego w modelu silosowym odbywa się w ten sposób, że to biznes przychodzi do działu informatyki i prosi o obsługę. Aby móc wtedy uruchomić dany proces, musi dokonać inwestycji, na co niezbędny jest uprzednio dopracowany budżet. Dział informatyki jest zazwyczaj traktowany jako "pan i władca" zasobów, które udostępnia - przejście do modelu usługowego sprawi, że IT w firmie będzie musiało realizować dokładnie zamówienia, zgodnie z umowami SLA.

Policzyć koszty

Pewna część klientów liczy bardzo ważny parametr usług - ich koszt. Obecnie niektórych usług nie opłaca się utrzymywać w firmie, gdyż zakup licencji, szkolenia pracowników oraz koszty utrzymania są zbyt wysokie w porównaniu do usługi kupionej od operatora. Taką usługą jest na przykład poczta elektroniczna oraz hosting stron WWW, pojawiają się również dobre oferty eksploatacji w modelu usługowym oprogramowania finansowo-księgowego, a nawet contact center. Należy jednak pamiętać, że przeniesienie obsługi do modelu usługowego w chmurze nie zawsze będzie opłacalne, gdyż nadal pracownicy IT w przedsiębiorstwie będą potrzebni, chociaż zmienią się ich zadania i obowiązki.

Jak zabezpieczyć dane

Standardowym sposobem zabezpieczenia informacji jest jej zaszyfrowanie. Metoda ta jest na tyle dobra, na ile poprawnie zaimplementowano uznany algorytm szyfrujący i wprowadzono zarządzanie kluczami. Zatem przy transmisji danych w szyfrowanym kanale internetowym często stosuje się SSL albo zestawia połączenie IPSec między siecią dostawcy usługi i odbiorcą (w modelu cloud występuje to o wiele rzadziej). O wiele trudniej zabezpieczyć dane w stanie spoczynku, gdyż standardowe dla narzędzi pełnodyskowego szyfrowania uwierzytelnienie podczas startu wymaga wprowadzenia hasła przy uruchamianiu systemu operacyjnego, a to przekreśla automatyzację startu maszyn wirtualnych w środowisku cloud computing. Z kolei pobieranie kluczy z lokalnego serwera w infrastrukturze dostawcy, chociaż możliwe, nie chroni tego, na czym firmie najbardziej zależy - danych zapisanych w maszynach wirtualnych przed dostępem pracowników operatora. Istnieją już rozwiązania, które wprowadzają repozytorium kluczy i zarządzanie dostępem z serwera, który znajduje się poza środowiskiem operatora hostingowego.

Paradoks poczty

Ciekawą usługą w modelu cloud jest ochrona poczty elektronicznej polegająca na przekierowaniu ruchu do data center usługodawcy, gdzie następuje filtrowanie antyspamowe i ochrona antywirusowa. Przeciętna firma w Polsce nie stosuje PKI ani żadnych innych narzędzi szyfrowania wiadomości e-mail, zatem treść listów przechodzi przez sieć w sposób jawny, bez żadnej ochrony. W obliczu braku zabezpieczeń wiadomości wychodzących z przedsiębiorstwa, ochrona w modelu cloud wydaje się bezproblemowa, ale wiele firm twierdzi inaczej. Nawet jeśli połączenie do usługodawcy w modelu cloud jest szyfrowane za pomocą TLS.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200