O systemach zarządzania danymi oraz trendach w rozwoju infrastruktury IT

Rozmowa z Leonidem Venglinskim, Inżynierem Systemów w Veritas Technologies LLC oraz Konradem Puchałą, Kierownikiem Działu Składowania i Ochrony Danych w firmie Advatech.

Co jest obecnie największym wyzwaniem w systemach zarządzania danymi, kopią zapasową, archiwum? Jakie widzicie trendy w tym obszarze?

Leonid Venglinski, Inżynier Systemów w Veritas Technologies LLC: Obserwujemy dalszą konieczność optymalizacji infrastruktury z zachowaniem niezależności od dostawcy sprzętowego. Danych wymagających ochrony szybko przybywa, a pełna otwartość na technologie dyskowe i taśmowe różnych producentów w produktach Veritas pozwala łatwo modernizować infrastrukturę przy minimalizacji kosztów i braku kosztownych migracji. Klient korzystający z aplikacji Veritas NetBackup może skorzystać z urządzeń Veritas Appliance 5240/5340 czy Veritas Access 3340, ale co ważniejsze, ma pełną swobodę wyboru technologii przechowywania danych innych producentów, co w ujęciu długoterminowym obniża łączne koszty wdrożenia i posiadania rozwiązań do ochrony danych. Aby to było możliwe Veritas adresuje pojawiające się wyzwania technologiczne, zapewnia adaptację chmury publicznej, chroni nowoczesne środowiska oparte o konteneryzację oraz bazy danych i aplikacje OpenSource.

Klienci w Polsce coraz chętniej korzystają z chmur publicznych. Microsoft ogłosił niedawno, że zainwestuje w Polsce miliard dolarów na stworzenie nowoczesnego centrum danych, pierwszego takiego w Europie Środkowo-Wschodniej. Jak takie decyzje wpływają na rozwój produktów Veritas?

O systemach zarządzania danymi oraz trendach w rozwoju infrastruktury IT

Leonid Venglinski, Inżynier Systemów w Veritas Technologies LLC

Leonid: Pilnie obserwujemy ruchy gigantów, bo chmura publiczna ma kluczowy wpływ na rozwój produktów Veritas. W najprostszym przykładzie chmura publiczna może być medium długoterminowego składowania kopii zapasowej, jednak aby miało to sens kosztowy i biznesowy niezbędna jest aplikacja, która przed wysłaniem do chmury, deduplikuje i szyfruje dane tak, aby zminimalizować koszty ich składowania. Taką rolę pełni nasz system Veritas Cloud Catalyst. Lokalny cache pozwala obniżyć koszt odczytu danych z chmury, a w razie katastrofy w lokalizacji głównej można od razu przystąpić do odtwarzania w chmurze, gdyż są tam zarówno kopie zapasowe jak i meta-dane potrzebne do ich odtworzenia. Teraz inny przykład – zdarza się, że trzeba przełączyć własne Data Center na chmurę publiczną. Mamy do tego narzędzie Veritas Resiliency Platform, które pozwala na budowę i realizację scenariusza takiego przełączenia wraz z rekonfiguracją sieci i integracją z systemem backupu.

Dobrze, ale co w przypadku, gdy chmura publiczna nie jest zapasowym centrum danych, ale trzonem głównej infrastruktury?

Leonid: Pamiętajmy o tym, że niezależnie od technologii, sprzętu, wybranych rozwiązań etc. najważniejsza jest świadomość, że za ochronę danych odpowiada klient, a nie dostawca infrastruktury publicznej. Każda infrastruktura wymaga ochrony. Możliwości i dostępnych technologii jest kilka. W chmurze możemy uruchomić tradycyjny serwer backupu oparty o Veritas NetBackup, lub skorzystać z Veritas CloudPoint, który zapewnia zarządzanie migawkami i odtwarzaniem w środowiskach multi-cloud. Natomiast do ochrony Microsoft Office 365 proponujemy Veritas SaaS Backup.

Jaka jest rola i zadania Advatech jako partnera Veritas?

Konrad Puchała, Kierownik Działu Składowania i Ochrony Danych w firmie Advatech: Szybko rosnąca ilość danych podlegających ochronie powoduje, iż często z naszymi klientami rozmawiamy o kosztach wymaganych modernizacji, wymiany infrastruktury oraz utrzymania systemu w kolejnych latach. Jest to naprawdę duże wyzwanie, wymagające sporej wiedzy i doświadczenia. Jeśli zauważymy, że każdy 1 TB danych źródłowych wytwarza 10 - 20 TB danych w systemie backupu, to widać, że rozmawiamy o sporych pieniądzach.

Advatech jest partnerem Veritas od wielu lat i przez ten czas widzimy ogromne korzyści płynące z otwartości Veritas na technologie sprzętowe wielu producentów. Mamy dużych klientów, u których wdrożenie systemu Veritas NetBackup odbyło się 12-15 lat temu i system ten działa do dzisiaj, choć infrastruktura się zmieniała, pojawiały się urządzenia dyskowe z deduplikacją, a teraz postępuje stopniowa eliminacja taśm na korzyść urządzeń obiektowych zoptymalizowanych do długoterminowego przechowywania danych.

Przyjęło się, że nośniki taśmowe pozwalają uzyskać najniższy koszt przechowywania danych. Skąd zatem bierze się to zainteresowanie urządzeniami obiektowymi w archiwum?

O systemach zarządzania danymi oraz trendach w rozwoju infrastruktury IT

Konrad Puchała, Kierownik Działu Składowania i Ochrony Danych w firmie Advatech

Konrad: Jeżeli spojrzymy kompleksowo na backup i archiwizację, to dostrzeżemy, że w wielu przypadkach taśmy wcale nie są najtańszym nośnikiem. Systemy backupu są często przeładowane danymi składowanymi na wiele lat, a pamiętajmy, że głównym celem systemu kopii zapasowych jest odtwarzanie danych po awarii z najświeższej możliwej kopii. Wielu klientów systemy backupu traktuje jako archiwum, gdyż tak jest najprościej, a dane archiwalne zwykle trafiają na taśmę. Jednak gdy do kosztu archiwum na taśmach doliczyć licencje systemu backupu, napędy, pozostałą część infrastruktury i długi czas dostępu do danych, trudniejszą ochronę DR, to w wielu obszarach korzystniej jest zastosować dyskowe urządzenia obiektowe.

Mamy przykłady z naszej krajowej praktyki - w jednym z banków uruchomiliśmy urządzenia Veritas Access 3340, które dzięki wbudowanej deduplikacji i optymalizacji replikacji danych łączą niski koszt składowania, bardzo wysoką pojemność z krótkim czas dostępu do danych. Dostępne interfejsy obiektowe pozwalają na bezpośrednią integrację z aplikacją wymagającą archiwizacji, bez pośrednictwa i kosztów systemu backupu. Bazy danych i aplikacje można archiwizować bezpośrednio na Veritas Access z użyciem protokołów obiektowych S3 czy REST API lub plikowo, przy użyciu CIFS lub NFS. Do archiwizacji poczty i serwerów plików proponujemy Veritas EnterpriseVault zintegrowanego z Veritas Access. Do takiego właśnie podejścia zachęcamy naszych klientów.

Jak zatem wybierać dane wymagające archiwizacji, i co ważniejsze, jak wskazać optymalny nośnik i sposób przechowywania, aby optymalizować koszty?

Konrad: To jedno z trudniejszych wyzwań. Praktyka pokazuje, że zawsze spora cześć danych jest nierozpoznana, nie ma właściciela, nie ma związku z prowadzoną działalnością, teoretycznie można je usunąć, ale brakuje skutecznej metody ich wskazania. Ten obszar dark data może stanowić około 50% wszystkich danych. Pomocne w takich wyzwanach są rozwiązania Veritas Information Studio oraz Veritas Aptare. Pierwszy z nich pomaga w analizie zawartości danych, klasyfikacji, identyfikacji danych osobowych, rozpoznaniu profili ich wykorzystania, określeniu właściciela lub jego braku. Z kolei Aptare to rozbudowana analityka infrastruktury IT, wbudowane mechanizmy AI, wskazuje obszary, gdzie występuje ryzyko utraty danych lub gdzie można dokonać optymalizacji wydajności i zasobów. Pozwala to uzyskać przekrojowy obraz danych i infrastruktury całej organizacji. Na tej podstawie możemy już podejmować świadome i skuteczne decyzje zmierzające do optymalizacji i zmniejszenia kosztów utrzymania infrastruktury IT.