Backup w centrach danych

Rosnąca ilość danych, wprowadzanie nowych aplikacji oraz wysokie wymagania dotyczące dostępności systemów sprawiają, że backup jest pod silną presją. Dużo wskazuje na to, że świat kopii zapasowych czekają istotne zmiany.

Ochrona danych nie należy do flagowych projektów działów IT. Nawet w samej strukturze informacji inne zagadnienia, jak wirtualizacja i chmura, są bardziej pociągające. Jednak od backupu nie uciekniemy. Jeśli nie da się odzyskać danych z kopii zapasowej, gdy dojdzie do awarii systemów produkcyjnych, wszystko inne traci znaczenie. IT musi działać według strategii, która uwzględnia ochronę danych, określa, jakie są potrzeby w tym obszarze i co należy zrobić, aby je zaspokoić. Ważna jest ocena kosztów tych działań oraz kosztów ryzyka, jeśli potrzeby nie zostałby zrealizowane. Ponieważ backup nie tworzy wartości biznesowej, należy wybierać takie rozwiązania, które z jednej strony zapewnią wymagane bezpieczeństwo danych, a z drugiej będą jak najmniej uciążliwe, czasochłonne dla IT. To pozwoli informatykom skupić się na systemach produkcyjnych.

Wyzwania

Jednym z priorytetów w obszarze backupu jest szybko rosnąca ilość danych. Potwierdzają to, m.in. wyniki ankiety przeprowadzonej wśród amerykańskich i europejskich korporacji (powyżej 1000 pracowników i minimum 50 TB danych objętych ochroną) w ramach badania Sepaton Data Protection Index. Nieco ponad połowa firm zmaga się ze wzrostem mieszczącym się między 15 a 25 procent. Problemem jest również wielkość samego backupu. Aż 52 % pytanych ma do czynienia z pełnymi backupami powyżej 100 TB, z czego 27 % robi pełne kopie zawierające pomiędzy 500 a 1000 TB danych.

Zobacz również:

  • Ransomware zagraża ochronie zdrowia
  • Co trzecia firma w Polsce z cyberincydentem
  • Nvidia odtworzyła całą planetę. Teraz wykorzysta jej cyfrowego bliźniaka do dokładnego prognozowania pogody

Do tego systemy backupu stają się coraz bardziej skomplikowane. Aż 27 % ankietowanych wykonuje kopie na taśmach i dyskach twardych. W użyciu są nowe technologie, jak kopie migawkowe czy cloud. Poza tym firmy stosują różne protokoły do kopiowanie danych, przy czym warto zauważyć, że tylko 5 % używa do tego celu Fibre Channel.

Interesujące, że prawie połowa odpowiedziała, iż uważa stosowane przez siebie rozwiązanie backupowe nieadekwatne do potrzeb w zakresie ochrony danych. 42 % pytanych mówi, że problemem staje się zbyt duża liczba celów backup. Ponad 70 % narzeka, że z roku na rok coraz trudniej przychodzi zmieszczenie się w oknach backupowych. Aż 55 % nie szyfruje kopi zapasowych, a ponad jedna piąta nie ma mechanizmów chroniących przed katastrofami.

Firmy skupiają się na zwiększaniu wydajności, co wiąże się z przyrostem danych. Rozwiązaniem jest zwiększanie wydajności systemów backupu (skrócenie okien backupowych), tworzenie warstwowych systemów dyskowych oraz próby ograniczania przyrostu danych. Firmy szukają rozwiązań umożliwiających szybszą deduplikację baz danych i nieustrukturyzowanych danych, wydajniejsze szyfrowanie, a także rozwiązań, które są skalowalne, umożliwiają zarządzanie parametrami SLA i spełnienie wymogów prawnych.

Zbyt dużo danych

Rośnie ilość danych, a jednocześnie kurczą się okna backupu. W odpowiedzi sprzęt można ciągle skalować, przynajmniej w teorii. Bardziej praktycznym rozwiązaniem jest ograniczenie danych, które trafiają do kopii zapasowych. Spośród różnych technologii największy potencjał w tym obszarze daje deduplikacja. Może być realizowana po stronie systemu backupowego bądź po stronie klienta. W drugim przypadku zaletą jest ograniczenie ilości danych przesyłanych przez sieć, ale nie zawsze jest to możliwe do zrealizowania. Deduplikacja wymaga bowiem intensywnych obliczeń, które negatywnie wpływają na wydajność maszyny produkcyjnej. Deduplikacja ma też pozytywny wpływ na zarządzanie i koszty przechowywania danych. To, m.in. za jej sprawą coraz częściej wykorzystuje się dyski twarde zamiast taśm do przechowywania kopii zapasowych.

Algortymy deduplikacji są stale udoskonalane. Na rynek trafiły już rozwiązania, w których ten mechanizm działa strefowo. Potrafi rozpoznać w kopiowanych danych obiekty podobne do obiektów, które wystąpiły wcześniej. To zwiększa ilość wykrywanych, powtarzających się informacji.

Niestety deduplikację nie zawsze da się zastosować. Najpoważniejszym problemem są bazy danych używane do obsługi aplikacji biznesowych. Bazy te rozrastają się i zrobienie ich kopii w kurczącym się oknie backupowym jest trudne. Dlatego stosuje się takie technologie backupu, jak multistreaming czy multiplexing, co skraca czas kopiowania danych. Jednakże mechanizmy deduplikacji nie potrafią przetwarzać takiej wielostrumieniowej transmisji. W efekcie następuje niekontrolowany przyrost danych w dużych, korporacyjnych systemach backupu. Z bazami danych jest również ten kłopot, że przechowują dane w małych segmentach (mniejszych niż 8 KB), co również obniża skuteczność deduplikacji.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200