Jedna firma, wiele chmur

Nie istnieje usługa, która byłaby w stanie w pełni pokryć potrzeby przeciętnej organizacji – każda chmura lepiej pasuje do pewnych zastosowań, w innych radząc sobie nieco gorzej. To sprawia, że wiele firm decyduje się na jednoczesne korzystanie z kilku różnych platform, odpowiedzialnych za obsługę różnych usług i systemów. Niestety, efektem takiego działania jest zwykle pewien chaos organizacyjny i problemy z zarządzaniem środowiskiem wielochmurowym. Istnieją jednak techniki i narzędzia, które ten proces mogą znacząco uprościć.

Wśród firm, które oferują takie rozwiązania, znajdziemy zarówno doświadczonych graczy z rynku IT, jak i młode, ambitne startupy – warto tu wymienić np. IBM, BMC Software, Cisco, Dell Technologies Cloud, DXC Technology, VMware, HyperGrid czy Divvycloud. Co więcej, poszukując narzędzi do zarządzania środowiskami, w których wdrożono wiele chmur, nie trzeba koniecznie sięgać po dodatkowe narzędzia – dostawcy wielu platform cloud wyposażyli je w funkcje współpracy z innymi, podobnymi rozwiązaniami.

Multicloud. Zapanować nad chaosem

Zarządzanie infrastrukturą IT rozsianą po wielu platformach chmurowych może być poważnym wyzwaniem. Firma musi w każdej z nich zarządzać co najmniej jednym zestawem kluczowych zasobów, w tym konfiguracją, hasłami, kluczami szyfrującymi, procedurami wdrożenia i aplikacjami – i to dla każdej platformy chmurowej. Każdą platformę trzeba też nieustannie monitorować, zapoznawać się ze zmianami w technologii. Przed wdrożeniem środowiska produkcyjnego trzeba śledzić nie tylko zmiany w owym środowisku ale również relacje z innymi posiadanymi zasobami. A im więcej usług, tym większy poziom skomplikowania.

Zobacz również:

Dla organizacji, które korzystają lub zamierzają korzystać z wielu rozwiązań chmurowych, kluczowe jest zachowanie spójności tych rozproszonych środowisk oraz monitorowanie i kontrola z poziomu jednego interfejsu lub aplikacji. To nie tylko znacząco usprawnia zarządzanie, ale również zapewnia odpowiednią przejrzystość i czytelność całej infrastruktury, co z kolei przykłada się na minimalizowanie kosztów i czasu zarządzania środowiskiem IT.

Szczególnie ważną kwestią związaną z zarządzaniem środowiskiem multicloud jest konieczność stałego sprawdzania stanu poszczególnych zasobów i ich konfiguracji. Zadanie nie jest proste, bo różne usługi oferują różną funkcjonalność, zatem trudno jest je odpowiednio zestawić i spójnie prezentować.

Christopher Gerhardt z firmy konsultingowej GrayBeard, uważa, że bez odpowiednich narzędzi do monitorowania i kontrolowania wielu usług chmurowych korzystanie w firmie z modelu multicloud de facto mija się z celem. „W takiej sytuacji dodatkowa praca i koszty związane z zarządzaniem takim skomplikowanym środowiskiem właśnie negowałyby wszelkie korzyści, jakie mogłyby wynikać z korzystania z architektury „wielochmurowej” – mówi Gerhardt. Dodatkową korzyścią wynikającą z wdrożenia narzędzi do zarządzania wieloma chmurami jednocześnie jest skrócenie i uproszczenie czasu szkolenia personelu – pracownicy nie muszą bowiem uczyć się obsługi wielu różnych chmur, wystarczy, że opanują korzystanie z owych narzędzi.

Multicloud. Na co zwracać uwagę

Problem z wyborem narzędzia do kontrolowania środowiska wielochmurowego może wynikać m.in. z faktu, że takich produktów jest na rynku bardzo wiele, a na dodatek różnią się one zakresem funkcji. Taki produkt powinien przede wszystkim oferować kompleksowy monitoring i zarządzanie najpopularniejszymi chmurami, w tym przede wszystkim AWS, Azure, Google Cloud i Alibaba Cloud. Niezbędne są również narzędzia z dziedziny automatyzacji, które pozwolą na uniknięcie problemów z błędami konfiguracji i naruszaniem zasad bezpieczeństwo. Pozwala to bowiem zwiększyć niezawodność i podnieść poziom bezpieczeństwa.

Bardzo istotne jest również, by takie rozwiązanie wyposażone było w zaawansowane funkcje współpracy pomiędzy różnymi platformami oraz zespołami. „Dzięki temu członkowie różnych zespołów pracujących w ramach tej samej infrastruktury mają błyskawicznie wgląd w to, co dokładnie się dzieje w infrastrukturze, co jest przygotowywane i wdrażane” – wyjaśnia Greg Pierce, główny specjalista ds. chmury w DXC Technology.

Specjaliści zgadzają się również do tego, że bardzo istotne są: odpowiednio przejrzysty i wygodny w użyciu pulpit operacyjny, funkcje z dziedziny wizualizacji, raportowania oraz tworzenia diagramów architektury, a także odpowiednio wysoka skalowalność wdrażanego rozwiązania. Warto zwrócić uwagę na możliwości danego narzędzia w dziedzinie integracji z innymi rozwiązaniami – w dobrym produkcie do zarządzania środowiskiem multicloud powinno być dostępne odpowiednio dopracowane, otwarte API do innych narzędzi korporacyjnych, w tym m.in. aplikacji oferujących funkcję alertów (np. Slack czy PageDuty) czy rozwiązań do śledzenia zmian i zarządzania zadaniami (Jira, ServiceNow).

Problemy związane z samymi wdrożeniami narzędzi do zarządzania środowiskiem wielochmurowym wynikają głównie z wymagań biznesowych, jak choćby kwestii wypełniania odpowiednich regulacji branżowych. Warto również, wybierając taki produkt, zwrócić uwagę, jak bardzo jest on skomplikowany w obsłudze, co może mieć znaczenie dla użytkowników nie posiadających szerokiej wiedzy informatycznej.

Kto się boi chmury

Liczba wdrożeń chmury rośnie i coraz więcej firm nie zastanawia się już czy inwestować w cloud computing tylko kiedy rozpocząć wdrożenie. W wielu branżach chmura już jest codziennością i biznes nie wyobraża sobie funkcjonowania bez niej. Jednocześnie jednak wiele organizacji wciąż nie do końca uświadamia sobie, w jaki sposób ta technologia może wpłynąć na ich działania.

Z raportu opublikowanego niedawno przez firmę Accenture wynika np., że blisko 2/3 amerykańskich korporacji nie potrafi w pełni ocenić pełnych korzyści z wdrożenia chmury. Jednocześnie 55% z nich twierdzi, że obawiają się migracji do chmury, jako powody podając przede wszystkim wysoki poziom skomplikowania ich procesów informatycznych oraz obawę przed radykalną zmianą organizacyjną. Częstym argumentem przeciwko chmurze jest również niepewność co do poziomu bezpieczeństwa oraz zgodności z regulacjami branżowymi.

Nie tylko oszczędności

Wdrażanie narzędzi do zarządzania środowiskiem wielochmurowym wynika z kilku przesłanek. Mogą to być na przykład: chęć oszczędności, dążenie do usprawnienia zarządzania zasobami na wielu platformach jednocześnie i sprawniejszego ich monitorowania, wdrożenia automatyzacji pewnych procesów czy zwiększenia poziomu bezpieczeństwa. Wynikające z tego korzyści są szczególnie dobrze widoczne – i doceniane – w branżach, których funkcjonowaniu jest w wysokim stopniu objęte rządowymi lub branżowymi regulacjami, czyli np. w służbie zdrowia czy usługach finansowych.

Przemyślana i odpowiednio wdrożona strategia wielochmurowa jest optymalnym rozwiązaniem dla klientów, którzy potrzebują rozwiązania będącego w pełni bezpieczne i zgodne z wymaganiami regulatorów, ale które równocześnie będzie również łatwe do wdrożenia, proste do zarządzania, a także pozwoli na redukcję kosztów oraz skrócenie czasu tworzenia i wprowadzania na rynek produktów.

Provisioning usług IT

Oczywiście, nie wszystkie z tych obaw są zupełnie bezzasadne. Choć chmura oferuje wiele korzyści, to jednak niektóre aspekty tej technologii są zdecydowanie bardziej złożone i skomplikowane, niż mogłoby się wydawać (i niż obiecują entuzjaści cloudu). Oto kilka przykładów.

W przypadku korzystania z własnej infrastuktury IT, firma ma pełną kontrolę nad aplikacjami i środowiskiem IT, a dział techniczny w pełni kontroluje proces implementowania nowych usług – od etapu ich tworzenia, przez testowanie i szkolenia, aż po wdrożenie produkcyjne. W środowisku hostowanym w chmurze jest inaczej, bo tam to operator platformy/dostawca usługi cloud w pełni kontroluje proces zapewniania zasobów (provisionig) niezbędny do przeprowadzenia danego wdrożenia. Użytkownik ogólnie określa swoje potrzeby w tym zakresie, ale wszelkie aspekty techniczne pozostają po stronie dostawcy.

Ma to swoje zalety, ale i wady. Przykładowo, określenie potrzeb zwykle odbywa się przed rozpoczęciem wdrożenia, a późniejsze zmienianie warunków i wprowadzanie zmian jest trudniejsze niż we własnym środowisku IT.

Dostawca chmury ma setki, jeśli nie tysiące, klientów, których musi obsługiwać jednocześnie – trudno oczekiwać, by był w stanie w danym momencie natychmiast pochylić się nad specyficznymi problemami i potrzebami jednego z nich. A jeśli nawet to zrobi, to prawdopodobnie nie natychmiast. Dlatego dla firm planujących migrację do chmury/chmur tak ważne jest przewidywanie takich sytuacji i ściśle ustalenie z dostawcą zasad współpracy.

Zapewnienie zgodności i kontrola kosztów

„Łatwość korzystania z chmury jest czymś fantastycznym, ale korzystanie z tego modelu zwykle generuje problemy związane z zapewnieniem zgodności z regulacjami oraz kontrolą kosztów. Wypracowanie odpowiedniego balansu pomiędzy zapewnieniem swoim zespołom możliwości szybkiego wdrażania nowych rozwiązań, a wprowadzaniem do organizacji nowych zagrożeń zwykle wymaga sporo wysiłku i kilku prób, zanim wszystko uda się zrobić optymalnie” – wyjaśnia Mark Nunnikhoven, wiceprezes działu Cloud Research w firmie Trend Micro, która oferuje swoim klientom cały zestaw usług dostarczanych bezpośrednio z chmury.

“Gdy nasi specjaliści tworzą i testują nowe produkty, chmura jest niezastąpionym narzędziem, które automatyzuje i znacznie przyspiesza tworzenie aplikacji dla wielu środowisk, jednocześnie pozwalając na redukcję kosztów” – mówi Nunnikhoven. Szczególnie dobrze jest to widoczne np. w procesie testowania, gdy w trosce o zapewnienie odpowiedniej zgodności produktów można w chmurze przeprowadzić ogromne ilości testów w setkach najróżniejszych symulowanych środowisk. Przedstawiciel Trend Micro wyjaśnia jednak, że to prowokowało testerów do uruchamiania oddzielnych testów w sytuacji wprowadzenia najmniejszych choćby zmian w konfiguracji – co z kolei powodowało opóźnienia i generowało ogromne koszty.

Testy regresyjne

Kolejnym problemem dla firm migrujących do chmury jest fakt, iż środowisko w którym działają ich systemy – owa chmura – również stale się zmienia, ponieważ dostawcy platform regularnie aktualizują swoje oprogramowanie. Zmiany mogą polegać na usuwaniu błędów czy luk, ale mogą też wprowadzać nowe funkcje. Oczywiście, klient nie musi koniecznie z tych nowych funkcji korzystać – jednak za każdym razem powinien przeprowadzić proces sprawdzania i testowania nowej wersji platformy pod kątem zgodności ze swoimi systemami.

To oznacza konieczność przeprowadzenia testów regresyjnych, które sprawdzą, czy zmiany na platformie nie wpłynęły negatywnie na funkcjonowanie oprogramowanie, które w poprzedniej wersji chmury działało bez problemu.

Aby sprostać temu zadaniu, firmy powinny opracować sformalizowany, efektywny model współpracy z dostawcą usługi, w ramach której będą mogli dowiedzieć się o tym, jakie zmiany są szykowane dla danej platformy i jak mogą one potencjalnie wpłynąć na funkcjonowanie ich systemów. Oczywiście, niezbędne jest również opracowanie odpowiedniej procedury testowej, która nie będzie wpływać na działanie systemów produkcyjnych.

Migracja do chmury – zmiana paradygmatu organizacyjnego

Firma Juniper Networks – dostawca usług z zakresu bezpieczeństwa i sieci – w ubiegłym roku finalnie zakończyła trwający kilkuletni proces migracji do chmury (a konkretnie: do 18 centrów danych partnerów) i zdecydowała się na zamknięcie własnego centrum danych. Szefostwo Junipera zdecydowało się na model multicloud – zamiast jednej platformy wybrano swoisty miks usług różnych dostawców chmurowych oraz prywatnej chmury, w której działają kluczowe aplikacje.

Największym wyzwaniem było „sprzątanie garażu”, czyli faktyczny proces przenoszenia poszczególnych zasobów do chmury – wspomina Bob Worrall, dyrektor informatyki w firmie. „Trwało to blisko 7 lat, co może wydawać się bardzo długim okresem, ale my tego tak nie poostrzegamy. Od 20 lat tworzyliśmy i wdrażaliśmy w naszych systemach cały ekosystem sieci, aplikacji, serwerów – a gdy trzeba przenieść coś tak złożonego, naprawdę należy postępować ostrożnie.”

Początkiem całego procesu było przeprowadzenie swoistego remanentu całej infrastruktury informatycznej – w Juniper Networks były to setki aplikacji działających w rozsianych po całym świecie centrach danych. W czasie audytu okazało się m.in., że w przypadku blisko 20% aplikacji właściwie nie było wiadomo, kto nimi zarządza, jak je skonfigurowano i co robią. „W pierwszej kolejności dość sprawnie przenieśliśmy to, co było łatwe do przeniesienia, a potem zderzyliśmy się z potężnym opóźnieniem, spowodowanym przez problemy z migracją starszych systemów” – mówi Worrall.

Odpowiedni poziom bezpieczeństwa

Operatorzy większości usług chmurowych zachwalają najwyższy poziom zabezpieczeń – i choć oczywiście nie są to twierdzenia bezpodstawne, to błędem byłaby opinia, że chmura jest wolna od problemów z bezpieczeństwem. Owszem, chmura stanowi wyzwanie dla bezpieczeństwa i kontroli dostępu, i to z kilku istotnych powodów. Wymaga np. efektywnego systemu zarządzania uprawnieniami. Problemem może być również nakładanie się różnych rozwiązań realizujących zbliżone zadanie, a także wypracowanie odpowiedniego modelu ochrony firmowych danych. Można to rozwiązać poprzez wprowadzenie blokady wysyłania e-maili z załącznikami – zamiast nich pracownicy udostępniają kolegom i partnerom odnośniki do zasobów, co pozwala skuteczniej zabezpieczyć dane i lepiej kontrolować, kto uzyskuje dostęp do nich.

Mentalna przesiadka na chmurę

Choć cloud computing jest modelem, z którego wiele firm korzysta od lat, to dla wielu pracowników (często również wyższego szczebla) chmura wciąż pozostaje pewnym novum – dlatego tak ważne jest odpowiednie edukowanie. Chodzi o zrozumienie, że to zupełnie inny model funkcjonowania firmowego IT.

Dobrze pokazuje to przykład firmy Ancestry.com, właściciela serwisu umożliwiającego użytkownikom tworzenie własnego drzewa genealogicznego. Ancestry w całości działa w chmurze – wszystkie firmowe systemy i aplikacje hostowane są w usłudze Amazon Web Services.

„Migracja do chmura była prawdziwym wyzwaniem – choćby z uwagi na wielość dostępnych w AWS opcji wyboru wielkości instancji, usług, typów rozwiązań storage. Inne były również podstawowe aspekty wielu standardowych operacji – inaczej przebiegał provisioning, inne były kanały dostarczenia produktów, musieliśmy też odświeżyć i zaktualizować swoje zasady bezpieczeństwa” – opowiada Darek Gajewski, główny analityk ds. infrastruktury w firmie.

„Wszyscy w organizacji musieli zmienić swoje podejście i mentalność, tak by dopasować się do zmian wprowadzonych do zasad funkcjonowania firmy. Tam, gdzie miało to sens, pozwoliliśmy naszym zespołom bezpośrednio zarządzać tymi zmianami – centralnie staraliśmy się kontrolować tylko procesy istotne dla całej organizacji. Stworzenie narzędzi które pozwoliły na łatwe kontrolowanie kosztów usług chmurowych pozwoliło naszym specjalistom na błyskawiczne ocenianie, jak wprowadzane zmiany wpływały nie tylko na funkcjonowanie ich systemów, ale również na koszty” – mówi Gajewski.


TOP 200