Ewolucja rozwiązań i technologii backup'u

Firmowe środowiska IT zmieniają się szybko, odpowiadając na nowe potrzeby biznesowe. Integracja urządzeń mobilnych, chmury oraz rosnąca szybko ilość danych oraz ogólny trend w kierunku centralizacji zmieniając sposób, w jaki zarządza się i korzysta z zasobów IT. Te trendy mają również wpływ na backup.

Rośnie liczba platform, które trzeba objąć ochroną backupową. Przybywa również nośników, których można używać do przechowywania kopii zapasowych. To powoduje wzrost kosztów, na co producenci systemów backupu muszą zareagować wprowadzając nowe rozwiązania.

Backup jako usługa

W Polsce usługi backupu w chmurze mogą już stanowić atrakcyjną alternatywę dla tradycyjnych kopii zapasowych. Potwierdza to rosnące zainteresowanie tego typu usługami ze strony klientów biznesowych. Rodzimi użytkownicy, także biznesowi, mają stosunkowo niską świadomość, jak nierozsądne jest przechowywanie danych tylko w źródłowej lokalizacji. Standardem jest tworzenie kopii zapasowych niesystematycznie oraz na mało bezpieczne, nietrwałe nośniki. Dlatego automatyczny backup do chmury może być ciekawym rozwiązaniem – obowiązki związane z bezpiecznym przechowywaniem danych spadają na operatora chmury, dysponującego odpowiednią infrastrukturą i wykwalifikowanym zespołem.

Zobacz również:

  • Ransomware zagraża ochronie zdrowia
  • Wielka dziura w odporności

Największy potencjał chmura przedstawia z punktu widzenia firm MSP, dla których budowa własnego centrum danych, nie wspominając o zapasowym, jest dużym, często nieopłacalnym wyzwaniem. Cloud daje im możliwość pozbycia się zbędnej infrastruktury i przestarzałych metod sporządzania backupu. Ponadto podnosi poziom ochrony kopii zapasowych poprzez przeniesienie ich poza własną siedzibę.

Za korzystaniem z backupu w chmurze przemawia coraz większe wykorzystanie urządzeń mobilnych i pracy zdalnej. Wymaga to innego podejścia do kwestii zabezpieczania danych. Dzięki chmurze klient otrzymuje szybki dostęp do zasobów. Uniezależnia się od lokalizacji, w której działa firma, ponieważ backup przez łączę internetowe można wygodnie zrobić także z terenu. Nawet przez radiowe łącze 3G. Mimo to wielu klientów wciąż obawia się korzystania z usług chmurowych.

Klienci obawiają się o bezpieczeństwo, jednak dane w chmurze z reguły są lepiej zabezpieczone niż w siedzibie firmy. Szczególnie, jeśli mówimy o podmiotach z sektora MSP, które często nie dysponują środkami na zatrudnienie wykwalifikowanej kadry IT i zakup sprzętu do ochrony danych. Natomiast dostawcy korzystają z nowoczesnej infrastruktury technicznej i specjalistów od backupu.

Szybkie przywracanie

W produktach do backupu najważniejsze stają się możliwości odzyskiwania danych z kopii zapasowych. W praktyce oznacza to wyposażanie produktów do backupu w różne funkcje. Po pierwsze, istotne jest testowe sprawdzanie, czy backup został wykonany poprawnie i da się z niego przywrócić dane. Kolejny istotny aspekt to czas przywracania. Najlepiej, żeby był jak najkrótszy, ponieważ celem jest zapewnienie ciągłości działania. Kolejnym ważnym elementem jest możliwości przywracania jedynie wybranych obiektów. Przykładowo, użytkownik może być zainteresowany odzyskaniem jedynie niektórych obiektów, jak wiadomości e-mail z Exchange’a. Taka operacja powinna przebiegać bez przeciążania systemu produkcyjnego. Ponieważ rośnie zainteresowanie tworzeniem backupu w chmurze, producenci zaczynają wyposażać swoje rozwiązania w funkcje umożliwiające backup w chmurze.

Backup maszyn wirtualnych

Wirtualizacja serwerów wymusiła wprowadzenie nowych technologii w systemach backupu. Rozwój w tym obszarze napędzają również wymagania dotyczące wysokiej dostępności danych. Dużą popularność zdobyły systemy backupu dedykowane do tego typu środowisk. Jedną z głównych różnic między tradycyjnym systemem backupu a tym służącym do ochrony maszyn wirtualnych jest brak agenta backupu. W środowisku wirtualnym funkcje realizowane przez agentów zostały przeniesione na poziom hypervisora, co przynosi kilka korzyści. Przede wszystkim poprawia wydajność. Jeśli w każdej maszynie działałby agent backupu, to przy kilku czy kilkunastu agentach (po jednym w każdej wirtualce) na jednym serwerze fizycznym spadek wydajności byłby znaczący. W świecie fizycznym ten problem jest mniej istotny, ponieważ rzadko fizyczny serwer pracuje przy pełnym wykorzystaniu zasobów. Zaplanowanie zadań backupu nie stanowi więc aż tak dużego wyzwania.

Wraz z popularyzacją wirtualizacji serwerów firmy zaczęły używać specjalizowanych, bezagentowych rozwiązań do backupu maszyn wirtualnych. Nad prostotą korzystania z pojedynczego systemu obejmującego całego środowisko IT przeważyła chęć lepszego zabezpieczenia wirtualnych serwerów. Systemy backupu ściśle zintegrowane z hypervisorem i warstwą zarządzającą środowiskiem wirtualnym ujawniły swoje niewątpliwe zalety i cieszą się dużym zainteresowaniem. Takie narzędzia mają dostęp do informacji o maszynach wirtualnych i serwerach fizycznych. Potrafią diametralnie skrócić czas backupu i ilość danych do skopiowania.

Wirtualizacja zmieniła nie tylko produkty, ale również strategię backupu. Zamiast skupiać się na ochronie systemów fizycznych, obecnie promuje się ochronę usług. Zadania backupowe muszą być bardziej związane z zapewnieniem ciągłości biznesowej, zamiast koncentrować się na ochronie określonego komponentu infrastruktury. Aby zbliżyć się do tego celu, jest potrzebne globalne, bardziej scentralizowane zarządzanie ochroną danych powiązane z oczekiwaniami biznesu w obszarze SLA. Chodzi o to, aby zapewnić ochronę aplikacjom bądź usługom biznesowym.

Przyrost danych

Według firmy Salesforce ilość danych zwiększy się od 10 do 50 razy w okresie od 2015 do 2020 r. Tak duży przyrost danych generowanych przez ludzi, urządzenia i firmy będzie coraz silniej stawiał firmy przed nowymi wyzwaniami, w tym z koniecznością zabezpieczanie tej rosnącej ilości danych. Z tworzeniem kopii zapasowych główny problem polega na tym, że przy rosnącej ilości danych, jednocześnie kurczą się okna backupu. Praktycznym rozwiązaniem tego problemu jest ograniczenie danych, które trafiają do kopii zapasowych. Spośród różnych technologii największy potencjał w tym obszarze daje deduplikacja. Może być realizowana przez system backupu lub macierz dyskową. Deduplikacja ma pozytywny wpływ na zarządzanie i koszty przechowywania danych. To, m.in. za jej sprawą coraz częściej wykorzystuje się dyski twarde zamiast taśm do przechowywania kopii zapasowych.

Algortymy deduplikacji są stale udoskonalane. Na rynek trafiły już rozwiązania, w których ten mechanizm działa strefowo. Potrafi rozpoznać w kopiowanych danych obiekty podobne do obiektów, które wystąpiły wcześniej. To zwiększa ilość wykrywanych, powtarzających się informacji.

Niestety deduplikację nie zawsze da się zastosować. Najpoważniejszym problemem są bazy danych używane do obsługi aplikacji biznesowych. Bazy te rozrastają się i zrobienie ich kopii w kurczącym się oknie backupowym jest trudne. Dlatego stosuje się takie technologie backupu, jak multistreaming czy multiplexing, co skraca czas kopiowania danych. Jednakże mechanizmy deduplikacji nie potrafią przetwarzać takiej wielostrumieniowej transmisji. W efekcie następuje niekontrolowany przyrost danych w dużych, korporacyjnych systemach backupu. Z bazami danych jest również ten kłopot, że przechowują dane w małych segmentach (mniejszych niż 8 KB), co również obniża skuteczność deduplikacji.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200