Prawdy i mity na temat backupu

Administratorzy backupu z kilku powodów nie lubią dużych zbiorów danych. Przyjrzyjmy się przykładowi. Firma ma 51 serwerów i 400 TB danych. Na 50 serwerach są po 2 TB danych, a pozostałe 300 TB znajduje się na jednym serwerze. Dostępne okno backupowe wynosi 12 godzin. W przypadku mniejszych serwerów skopiowanie 2 TB w ciągu 12 godzin nie jest szczególnym wyzwaniem, potrzeba na to ok. 50 MB/s przepustowości. W przypadku dużego serwera wymagany transfer to ok. 7,3 GB/s, czego nie da się osiągnąć z pomocą klasycznej architektury backupu i przywracania. W przypadku dużych zbiorów danych najczęściej mamy do czynienia z bazami danych czy zindeksowanymi systemami plików, więc podczas operacji przywracania trzeba skopiować cały backup, a nie pojedyncze pliki. Jeśli więc backup zajmuje 12 godzin, tyle samo będzie trwać przywracanie, a z reguły nieco dłużej.

Opisany przykład jest skrajny, aby jednoznacznie zobrazować problem. Do pewnego limitu duże zbiory danych można kopiować, rozbudowując infrastrukturę backupową, przyspieszając w ten sposób backup i przywracanie. Wyzwaniem jest poznanie limitów i określenie, czy dane rozwiązanie poradzi sobie z tymi limitami. Jak bezpiecznie i ekonomicznie radzić sobie z rosnącą ilością danych, stosując metodę przyrostowych ulepszeń w obszarze wydajności sprzętu? Problem pojawia się przede wszystkim wtedy, gdy ilość danych przyrasta szybciej niż IT jest w stanie dostarczać nowy sprzęt. Mówiąc inaczej, dane nie podążają zgodnie z prognozowanym trendem.

Zobacz również:

  • Ransomware zagraża ochronie zdrowia
  • IBM Security QRadar SIEM pomoże zarządzić globalną strukturą odpowiedzialną za bezpieczeństwo
  • Cyfrowa transformacja z AI - co nowego na Google Cloud Next 24

Dokładanie nowego sprzętu może chwilowo zasypać problem, ale na jak długo? Przyjmijmy, że udało się skrócić czas robienia backupu z 18 do12 godzin, co oznacza wzrost wydajności o jedną trzecią. Jednak firma niedługo potem przejmuje nowy dział biznesowy, którego dane należy zasymilować z jednym z posiadanych już dużych zbiorów danych, co spowoduje wzrost objętości o 45 %. W efekcie czas backupu będzie dłuższy niż początkowe 18 godzin.

Niestety większość organizacji w taki właśnie sposób próbuje rozwiązać problem kopiowania dużych zbiorów danych – z użyciem brutalnej siły. Większy, wydajniejszy sprzęt jest najczęstszą odpowiedzią. Usunięcie wąskiego gardła w jednym miejscu poprzez instalację nowego sprzętu powoduje jednak powstanie wąskiego gardła w innym miejscu. W taką grę można grać latami, wprowadzając przyrostowe usprawnienia, jednak w pewnym momencie danych i tak zacznie przybywać szybciej, przekraczając możliwości rozwijanego przyrostowo systemu backupu. Opisany problem wynika po części z przyczyn psychologicznych. Nowy sprzęt to nowa zabawka dla ludzi z IT. Jest szybki i można się nim pochwalić kolegom po fachu, szczególnie jeśli to sprzęt z górnej półki.

Jak to często bywa w IT, gdy wyczerpią się sprzętowe i programowe możliwości rozwiązania problemu, należy poszukać możliwych zmian w metodologii. Właśnie takiego spojrzenia na sytuację wymagają duże zbiory danych, a z problemowej sytuacji można wyjść na kilka sposobów. Po pierwsze można ograniczyć ilość danych, szczególnie jeśli z jakiś względów nie jest wymagane szybkie przywracanie. Umożliwia to deduplikacja po stronie klienta. Dodatkowo można jeszcze bardziej ograniczyć ilość kopiowanych danych, czy niemal wyeliminować tę czynność. Tu z pomocą przychodzą takie rozwiązania, jak migawki i replikacja.

Chmura nie rozwiązuje wszystkich problemów

Chmura jest świetnym miejscem na przechowywanie kopii zapasowych, ale jeśli dla firmy ważna jest możliwość szybkiego przywracania danych, lepiej jednak wybrać lokalne nośniki do przechowywania danych. Decyzję trzeba podjąć indywidualnie w każdym przypadku, ponieważ na czas przywracania wpływają różne czynniki, jak choćby kwalifikacje pracowników w tym zakresie czy przepustowość łączy, którymi firma dysponuje. Zaletą chmury jest łatwość dostępu do danych, co w niektórych sytuacja (np. klęskach żywiołowych) może przełożyć się na skrócenie czasu przywracania.

Wokół backupu w chmurze narosły też inne mity. Panuje, m.in. pogląd, że wszystkie rozwiązanie chmurowe są takie same. Jednakże rozważając skorzystanie z tego typu usługi, należy upewnić się, czy oferuje ona takie istotne funkcje, jak weryfikacja skopiowanych danych, narzędzia automatyzacji oraz konwersji plików. Nie wszyscy usługodawcy zapewniają funkcje potrzebne do sprawnego odzyskiwania danych, a raczej nikt nie chciałby ryzykować przerwania ciągłości biznesowej na skutek jedynie częściowej ochrony.

Błędem jest również przyjmowanie, że rozwiązanie internetowe może służyć jako jedyne narzędzie do tworzenia kopii zapasowych. Jak w każdym systemie backupu, warto mieć zróżnicowane zasoby. Firma, która zainwestuje w backup chmurowy, powinna również wdrożyć inne rozwiązanie, np. backup na dyskach. To znacznie podnosi poziom bezpieczeństwa danych. Oczywiście żadne rozwiązanie nie zapewni stuprocentowej ochrony, ale lepiej minimalizować ryzyko niż przyjmować bierną postawę. Mając lokalną kopię, zmniejsza się prawdopodobieństwo braku dostępu do danych. Ponadto łatwiej jest sprawdzić, czy ma się aktualne kopie.

Backup maszyn wirtualnych

Maszyny wirtualne to obusieczny miecz, jeśli chodzi o ochronę danych. Z jednej strony cała zawartość serwera jest upchana w jednym pliku wirtualnego dysku, którym można zarządzać, przenosić go, kopiować, przywracać czy replikować. Z drugiej strony, maszyny wirtualne przyniosły ze sobą szereg nowych wyzwań, które wymuszają na administratorach backupu wprowadzenie istotnych zmian w metodologii i infrastrukturze backupowej.

Do największych wyzwań zaliczają się:

  • maszyn wirtualnych, po przekroczeniu pewnej wielkości środowiska, nie da się chronić analogicznymi metodami, co serwerów fizycznych;
  • zrobienie kopii dysku maszyny wirtualnej wymaga jej wyłączenia, aby zachować spójność (są już rozwiązania backupowe, w których usunięto tę niedogodność);
  • kopie przyrostowe wymagają innego podejścia;
  • przywracanie pojedynczych plików czy obiektów z maszyny wirtualnej wymaga odpowiednich narzędzi;
  • zmiany w infrastrukturze fizycznej są konieczne, aby móc obsłużyć zmodernizowaną metodologią backupu;
  • zmian wymaga oprogramowanie backupu, wiele firmy wdraża nawet drugi system dedykowany ochronie środowiska wirtualnego.

TOP 200