Migracja i synchronizacja danych w chmurze hybrydowej

Zapewnienie niezawodnej i wydajnej synchronizacji plików to trudniejsze zadanie niż mogłoby się wydawać. Gartner prognozuje, że za 3 lata będzie to stwarzać problemy dla połowy firm wdrażających chmury hybrydowe.

Zalety i wady utrzymywania firmowego centrum danych są wszystkim dobrze znane, bo jest to rozwiązanie istniejące od dziesiątków lat i powszechnie wykorzystywane. Ale ostatnio coraz większą popularność zyskuje model hybrydowy, bo łącząc własne, firmowe centrum danych z usługami dostępnymi w chmurze można skorzystać z zalet obu tych rozwiązań unikając jednocześnie ich wad.

W modelu hybrydowym użytkownik, po dokonaniu inwentaryzacji wykorzystywanych aplikacji i danych, może zdecydować, które zasoby muszą zostać utrzymane w firmowym centrum danych, a które można przenieść do zewnętrznej chmury. Decyzje są podejmowane na podstawie technicznej, ale również uwzględniają lokalne wymagania prawne dotyczących zasad ochrony informacji.

Zobacz również:

  • HPE rozwija europejskie centrum R&D
  • Efekt synergii zmienia zasady pracy z danymi
  • Chmura obliczeniowa i usługi jej towarzyszące. Doradztwo, migracja, zarządzanie.

Najważniejsze zalety takiego rozwiązania są związane z ekonomią – możliwością ograniczenia kosztów bezpośrednich inwestycji w budowę i utrzymanie własnego centrum danych, ale również jego elastycznością, bo chmura z reguły ułatwia szybkie skalowanie zasobów zgodnie z bieżącym zapotrzebowaniem.

Idea jest prosta, ale jej praktyczna realizacja wymaga rozwiązania wielu problemów, które na pierwszy rzut oka nie zawsze są widoczne. Dlatego przed przystąpieniem do projektu migracji z systemu firmowego do chmury hybrydowej warto zapoznać się z raportami i poradnikami prezentującymi potencjalne problemy i metody ich rozwiązywania. Z reguły nie są to opracowania pozwalające na ich bezpośrednie wykorzystanie, ale zwracają uwagę, jakie mogą się pojawić przeszkody utrudniające sprawną realizację projektu.

Chmura hybrydowa umożliwia względnie łatwe skalowanie dostępnych zasobów zgodnie z bieżącym zapotrzebowaniem, zwiększenie odporności systemu na awarie, a jednocześnie zmniejszenie liczby wykorzystywanego sprzętu i kosztów związanych z inwestycjami oraz utrzymaniem infrastruktury. Dlatego rozwiązania hybrydowe zyskują obecnie miano standardu w firmach tworzących nowej generacji aplikacje i systemy chmurowe.

Na przykład, podstawowe zasady, których przestrzeganie ułatwia transformację z modelu firmowego centrum danych do systemu chmury hybrydowej można znaleźć w raporcie The Ultimate Hybrid Cloud Migration Checklist.

Niżej prezentujemy problemy związane z ważnym elementem chmury hybrydowej – systemami pamięci masowych oraz mechanizmami zapewniającymi migrację i synchronizację danych.

Podstawą jest dobry most łączący chmurę i system IT

Podstawowe parametry mające wpływ na projekt inwestycji w system IT, który ma obsługiwać firmę to: bezpieczeństwo, niezawodność, wydajność oraz ekonomia. Chęć zapewnienie optymalnej równowagi miedzy tymi elementami doprowadziła do powstania koncepcji chmury hybrydowej – systemu, który wykorzystuje zarządzalny most łączący tradycyjne zasoby IT z zasobami znajdującymi się w chmurze.

Chmurę hybrydową można określić jako wirtualną usługę znajdującą się pod kontrolą działu IT, która umożliwia elastyczne przesuwanie obciążeń między różnymi zasobami firmowego systemu IT, a różnego typu zasobami znajdującymi się w zewnętrznej chmurze lub chmurach. Przy wykorzystaniu odpowiedniego zestawu reguł można zoptymalizować funkcjonowanie chmury hybrydowej pod względem bezpieczeństwa, niezawodności, zgodności z przepisami prawnymi, firmową polityką oraz możliwymi do zaakceptowania kosztami.

Choć zgodnie z ideą chmury hybrydowej, szczególnie ważne dane i aplikacje o znaczeniu krytycznym są przechowywane i uruchamiane w firmowym centrum IT, ale podstawą sukcesu wdrożenia chmury hybrydowej jest zapewnienie możliwości szybkiego oraz nie powodującego przerw w dostępie, przesuwania zasobów między chmurą i firmowym systemem IT.

4 metody budowy efektywnego mostu komunikacyjnego

W najnowszym raporcie How to Migrate File Shares, SaaS and ECM to EFSS analitycy Gartnera prezentują cztery podstawowe metody wdrożenia oraz zarządzania procesami synchronizacji przy wykorzystaniu zarówno samodzielnie opracowanych rozwiązań jak i usług oraz narzędzi oferowanych przez niezależnych dostawców. Jednocześnie Gartner prognozuje, że do 2019 roku 75% firm wdroży mechanizmy EFSS, ale jednocześnie aż 50% z nich będzie miało problemy z migracją i synchronizacją danych. Dla porównania obecnie tylko 10% użytkowników deklaruje, że ma takie problemy.

Skrót EFSS oznacza Enterprise File Synchronization and Sharing i jest wykorzystywany przez analityków Gartnera jako określenie dotyczące platform, usług i narzędzi zapewniających migrację i synchronizację plików między różnymi pamięciami masowymi i systemami plików.

Jak podkreśla Gartner, choć sama idea utworzenia mostu łączącego firmowy system IT z chmurą jest prosta, ale w praktyce jej realizacja nastręcza wiele problemów. Bo efektywna migracja lub synchronizacja tysięcy lub milionów plików między różnymi systemami jest zadaniem trudnym i skomplikowanym.

W raporcie prezentują oni cztery podstawowe metody wdrażania chmur hybrydowych oraz ich zalety i wady. W ogólności wykorzystują one różne podejście do sposobu realizacji projektu oparte na samodzielnej integracji lub korzystaniu z zewnętrznych usług oraz narzędzi dostępnych na rynku.

Metody te zostały przez Gartnera podzielone na kategorie zaprezentowane poniżej.

Samodzielna integracja

Samodzielne wdrożenie systemu synchronizującego pliki może być przeprowadzone siłami wewnętrznego działu IT lub przez zatrudnionych w tym celu zewnętrznych konsultantów. Przystępując do takiego projektu warto pamiętać, że jego koszty szacowane na początku prawie na pewno okażą się wyższe niż zakładano, uważają analitycy Gartnera.

W większości sytuacji okazuje się bowiem, że różnice między systemami pamięci masowych, które mają funkcjonować w hybrydowej infrastrukturze są większe i głębsze niż początkowo się wydawało.

Wynika to z tego, że prawie każdy plik ma inne właściwości, a różne systemy plików obsługują je w odmienny sposób. Dotyczy to zarówno podstawowych parametrów: nazwa, format, metadane, jak bardziej zaawansowanych: wersja, właściciel, prawa dostępu.

W systemie hybrydowym może pojawić się konieczność normalizacji nazw plików, a także ręcznego określenia ich wersji. W różnych systemach plików wykorzystywane są też odmienne modele mechanizmów bezpieczeństwa co może spowodować nieoczekiwane problemy dla użytkowników i wprowadzić duże zamieszanie.

Często spotykanym, poważnym problemem jest brak możliwości szybkiego wykrywania uszkodzeń plików pojawiających się podczas transmisji oraz kontroli ich wersji zanim spowoduje to zakłócenia w działaniu firmowego systemu na dużą skalę.

Nawet we względnie prostych scenariuszach wdrożenia chmury hybrydowej zapewnienie jej sprawnego działania może się okazać zadaniem trudnym i skomplikowanym.

Praktycznym tego przykładem może być wdrożenie chmury hybrydowej przez amerykańską firmę budowlaną Shawmut Design and Construction wykorzystującą oprogramowanie Autodesk BIM 360, platformę Citrix ShareFile oraz dwa wymagające synchronizacji systemy plików. Ponieważ w trakcie budowy modyfikacja zamówień zgodnie z bieżącą sytuacją jest rzeczą typową, kontrolowanie i aktualizowanie wersji plików ma dla tej firmy krytyczne znaczenie, bo ewentualne błędy mogą być bardzo kosztowne. Ostatecznie firma zatrudniła 3 pracowników, których jedynym zadaniem jest zarządzanie synchronizacją plików tylko w tych dwóch systemach. A jeśli różnych systemów wymagających synchronizacji jest więcej to zapewnienie prawidłowej synchronizacji może wymagać armii dodatkowych pracowników dedykowanych do obsługi tylko tego zadania.

Dlatego niektóre firmy próbują wdrożyć narzędzia do synchronizacji automatycznej, niestety najczęściej bez zadowalających wyników, twierdzą analitycy Gartnera. Bo nie jest problem trywialny. Dlatego planując samodzielne wdrożenie chmury hybrydowej trzeba sobie zdawać z tego sprawę.

Proste mechanizmy kopiowania danych

Do synchronizacji danych znajdujących się w różnych lokalizacjach można wykorzystać standardowe funkcje wsadowego kopiowania plików takie, jak polecenia xcopy w Windows, rsync w Linuksie lub inne oferowane przez aplikacje udostępniane w ramach usług EFSS.

Mogłoby się wydawać, że jest to metoda prosta i niezawodna.

Trzeba jednak pamiętać, że do poprawnego działania, wymaga zgodności systemów pamięci masowej, między którymi dane są wymieniane. Jeśli wykorzystują one różne systemy plików to mogą pojawić się problemy wymagające modyfikacji nazw plików lub ich rozmiarów do poziomu najniższego wspólnego mianownika. Jeżeli systemy nie są w pełni zgodne, to szczególnym wyzwaniem jest też zapewnienie prawidłowego kopiowania takich informacji, jak uprawnienia do czytania, zapisywania lub kasowania plików.

Dlatego ta prosta metoda może z powodzeniem zostać zastosowana do wykonania jednorazowej migracji danych między systemami, ale jej wykorzystanie do systematycznej synchronizacji plików w chmurze hybrydowej jest ryzykowne. Bo polecenia wsadowego kopiowania z reguły nie udostępniają zaawansowanych mechanizmów pozwalających na porównywanie plików, ich wersji lub właściwości.

Usługi importu danych

Praktycznie w ramach każdej platformy EFSS udostępniane są aplikacje lub usługi kopiowania plików. Odpowiedzialność za prawidłowe przeprowadzenie takiej operacji spada wówczas na usługodawcę. Niestety nie oznacza to, że można łatwo uniknąć wymienionych wyżej problemów i wyniki migracji bardzo często a niezadowalające.

Dlatego też, zarówno dostawcy usług EFSS, jak i korporacje decydujące się na samodzielne wdrożenie chmury hybrydowej, coraz częściej zaczynają korzystać ze specjalizowanych narzędzi do migracji i synchronizacji danych, które są opracowywane i oferowane przez niezależne firmy.

Specjalizowane narzędzia wspomagające migrację i synchronizację plików

Rosnąca popularność chmur hybrydowych i problemy ze współpracą między różnymi systemami pamięci masowych spowodowały, że pojawił się popyt na specjalizowane oprogramowanie typu middleware – narzędzia do zarządzania procesami migracji i synchronizacji plików.

Na rynku dostępnych jest obecnie wiele tego typu aplikacji. Najbardziej zaawansowane wykorzystują zestaw modułów pośredniczących - interfejsów dopasowanych do każdego systemu pamięci masowej wspieranego przez producenta.

W efekcie, narzędzia te tworzą inteligentną, pośrednią warstwę oprogramowania, które umożliwia synchronizację plików między różnymi systemami bez utraty ich zaawansowanych właściwości.

Standardowo, wspierają one systemy plików i usługi takie jak NFS/SAN/NAS, SharePoint, różne rozwiązania ECM (Enterprise Content Management) i platformy EFSS (na przykład Box, Dropbox for Business, Google Drive Office 365, OneDrive ShareFile, Syncplicity).

Planując wdrożenie chmury hybrydowej warto uwzględnić możliwość zastosowania takich narzędzi i związane z tym koszty. Wybór odpowiedniego oprogramowania powinien uwzględniać jego zgodność z chmurowymi systemami pamięci masowej, które mają być wykorzystywane.

Niezależnie od indywidualnej oceny, która z prezentowanych metod migracji do chmury hybrydowej jest najlepiej dopasowana do wymagań firmy, w każdym przypadku Gartner rekomenduje zastosowanie specjalizowanych narzędzi analitycznych do skanowania systemu plików i indeksowania ich treści oraz atrybutów.

Bazy danych w systemie hybrydowym

Jednym z ważnych wyzwań, które staje przed firmami planującymi wdrożenie chmury hybrydowej jest konieczność zapewnienia niezakłóconego działania baz danych w obu środowiskach oraz efektywnego zarządzania ich pracą.

O czym należy pamiętać w takim projekcie, zwraca uwagę Robin Schumacher, wiceprezes firmy DataStax.

Czy zarządzanie bazami danych będzie łatwe i proste?

Warto się zastanowić czy korzystanie z bazy danych działającej zarówno w chmurze publicznej jak i prywatnej będzie łatwe oraz nie stworzy problemów?

Jeśli projekt przewiduje wykorzystanie jednej bazy danych działającej w chmurze publicznej, która jest traktowana jako część firmowej infrastruktury IT, to należy unikać planów zakładających zwiększenie elastyczności systemu przez rozproszenie zasobów wśród różnych dostawców usług.

Na łatwość wdrożenia systemu chmury hybrydowej istotny wpływ ma architektura leżąca u podstaw oprogramowania bazodanowego.

Można tu rozróżnić dwa podstawowe typy architektury masterless (baza rozproszona) oraz master-slave, gdzie wykorzystywane są węzły pełniące rolę zarządcy. Oprogramowanie oparte na pierwszej koncepcji na pewno będzie łatwiejsze do wdrożenia i zarządzania w chmurze hybrydowej, bo każda zainstalowana w systemie instancja bazy danych będzie widoczna i zarządzana w taki sam sposób.

W przypadku architektury master-slave, prawie zawsze wymagane jest wdrożenie elementów oprogramowania odpowiedzialnych za różne funkcje (np. zarządzanie zapisem, odczytem danych lub ich zabezpieczaniem przed awarią). Taką bazą trudniej jest później zarządzać zwłaszcza w przypadku, gdy dane są rozproszone w różnych geograficznych lokalizacjach.

Architektura wpływa też na funkcje replikacji danych, których mają duże znaczenie dla efektywnego działania i utrzymywania bazy danych.

Wdrożenie rozproszonej bazy danych w chmurze hybrydowej pozwala m.in. na przechowywania wielu kopii danych w różnych lokalizacjach oraz ma kilka innych zalet, z których najważniejsze to:

1. system taki pozwala na zapewnienie podobnej wydajności dla każdego użytkownika niezależnie od jego lokalizacji.

2. umożliwia zapobieganie awariom i przerwom w dostępie do danych na poziomie oprogramowania bazodanowego bez konieczności korzystania z dodatkowych rozwiązań zapewniających odporność na awarie, jak w przypadku klasycznych scentralizowanych baz danych.

3. zapewnia niezależność zarządzania operacjami zapisu/odczytu plików od fizycznej lokalizacji bazy danych.

4. pozwala na przechowywanie niektórych danych tylko w chmurze, a innych lokalnie oraz zapewnienie współdzielenia lub ograniczenia dostępu do informacji zgodnie z wymaganiami prawnymi lub polityką firmy.

Narzędzia do monitorowania i zarządzania powinny umożliwiać łatwą integrację każdej instancji bazy działającej w chmurze z serwerami obsługującymi ją w firmowym centrum danych. Inaczej mówiąc, każda taka instancja powinna być traktowana tak samo, jak inne elementy firmowej infrastruktury IT.

Skalowanie systemu baz danych

Jedną z podkreślanych zalet chmur hybrydowych jest możliwość szybkiego skalowania zasobów co dotyczy również baz danych, które powinny pozwalać na łatwe i elastyczne zwiększanie lub zmniejszanie liczby uruchamianych instancji zależnie od bieżących lub przewidywanych wymagań biznesowych.

Niestety trzeba zdawać sobie sprawę, że skalowanie baz danych między systemem firmowym i chmurą nie jest zadaniem łatwym.

Choć wiele dostępnych na rynku ofert usług DBaaS (DataBase as a Service) wydaje się zapewniać łatwą skalowalność, ale często okazuje się, że uzyskanie wymaganej wydajności aplikacji napotyka na poważne problemy.

W tym przypadku trzeba pamiętać, że architektura baz danych również odgrywa kluczową rolę jeśli chodzi o możliwość sprawnego przesuwania zasobów między firmowym centrum danych, a systemami znajdującymi się w chmurze.

Czy oprogramowanie bazodanowe ułatwi zabezpieczenie informacji

Bezpieczeństwo danych znajdujących się w zasobach chmurowych wciąż budzi największe obawy i często jest argumentem zniechęcającym do wdrażania chmur hybrydowych.

By zniwelować te wątpliwości, bazy danych, które mają działać w chmurze hybrydowej powinny być wyposażone w zestaw funkcji bezpieczeństwa klasy korporacyjnej, który zapewni ten sam poziom ochrony i te same mechanizmy związane z zarządzaniem niezależnie od miejsca przechowywania danych.

Transmisja danych między dowolnymi węzłami musi być bezwzględnie szyfrowana, a dostęp do nich chroniony przez mechanizmy autentykacji i autoryzacji użytkowników.

Oprócz tego należy wdrożyć narzędzia umożliwiające audyt i monitorowanie żądań dostępu do danych oraz aplikacji.

Wszystkie te funkcje powinny działać w sposób jednolity we wszystkich elementach chmury hybrydowej.

Dodatkowym, ale często ważnym wymaganiem jest konieczność zapewnienia kontroli, w jakiej lokalizacji dane są fizycznie przechowywane. Prawo wielu państw wymaga bowiem by wrażliwe informacje nie były przekazywane do centrów danych znajdujących się w innych państwach, a więc poza obszar lokalnej jurysdykcji.

Oznacza to, że oprogramowanie bazy danych wykorzystywanej w chmurze hybrydowej powinno umożliwiać określenie, które dane muszą być przechowywane lokalnie, a które mogą być swobodnie eksportowane do chmury nawet, jeśli fizycznie znajduje się ona poza granicami państwa.

Dokładana inwentaryzacja zasobów kluczem do sukcesu wdrożenia

Kompletna inwentaryzacja systemu i zasobów jest warunkiem niezbędnym do efektywnej migracji z klasycznego centrum danych do systemu chmury hybrydowej.

Pozwala ona na precyzyjne określenie, które aplikacje i dane muszą być przechowywane lub uruchamiane lokalnie, które mogą działać w chmurze, a które mogą być przenoszone przy spełnieniu określonych warunków.

Dodatkowo, inwentaryzacja umożliwia wykrycie zbędnych zasobów i przestarzałych aplikacji, które muszą zostać zmodyfikowane (wiążą się z tym określone koszty) lub usunięte.

Kto zapewni bezpieczeństwo danych?

Obecnie dostawcy usług chmurowych oferują zabezpieczenia, które często są bardziej zaawansowane niż te, które są stosowane w firmowych systemach IT. Wynika to z tego, że nadążanie za rozwojem zagrożeń i technologii zabezpieczających przed nimi jest trudnym zadaniem. Usługodawcy, działając w dużej skali, zatrudniają zespoły wysokiej klasy specjalistów od bezpieczeństwa IT, na co wiele korporacji i firm nie jest w stanie sobie pozwolić.

Nie oznacza to, że warto całkowicie zdać się na system bezpieczeństwa zapewniany przez zewnętrzną firmę. W modelu hybrydowym, aplikacje i dane o krytycznym znaczeniu są z reguły przechowywane w wewnętrznym systemie IT. Zespół zatrudnionych przez firmę specjalistów może skoncentrować się na zapewnieniu właśnie ich bezpieczeństwa, a nie rozpraszać na zadania związane z wszystkimi, również mniej ważnymi, aplikacjami.

Należy zdawać sobie sprawę, że tego typu podejście ma też wady. Bo poleganie tylko na wewnętrznym systemie IT wymaga inwestycji i szczególnej dbałości o systemy bezpieczeństwa danych, mechanizmy tworzenia kopii zapasowych i ich odtwarzania w wypadku awarii. W systemie chmurowym dane mogą być rozproszone, co ułatwia zwiększenie odporności systemu na awarie i zapewnienie jego wysokiej dostępności.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200