Techniki zwiększania efektywności

Deduplikacja i optymalizacja łączy WAN to dwa sposoby zwiększania efektywności systemów IT, które do niedawna były wykorzystywane głównie w dużych systemach korporacyjnych, a ostatnio zaczynają się pojawiać w ofercie adresowanej również do segmentu MSP.

Stosowanie mechanizmów deduplikacji lub optymalizacji WAN może przynieść oszczędności, choć zależy to od wykorzystywanych aplikacji. Modernizując lub rozbudowując system IT, na pewno nie należy z góry wykluczać możliwości zastosowania tych technik nawet w małych firmach. Zwłaszcza, że obecnie na rynku dostępne są dedykowane dla tego segmentu pamięci masowe wyposażone w oprogramowanie do deduplikacji, a także usługi optymalizacji łączy internetowych i akceleracji dostępu do aplikacji.

Deduplikacja

Deduplikacja to technika eliminacji powtarzających się (zduplikowanych) informacji przez oprogramowanie, które analizuje zawartość plików lub bloków danych i zapisuje w pamięci lub przesyła w sieci tylko unikalne treści oraz odpowiednie odnośniki do powtarzających się elementów.

Zobacz również:

  • Wyjaśniamy czym jest SD-WAN i jakie są zalety tego rozwiązania
  • Sztuczna inteligencja pomaga rozwiązywać problemy z sieciami

Zastosowanie deduplikacji w systemach do backupu pozwala czasami nawet na 50-krotne zmniejszenie zapotrzebowania na pojemność pamięci masowej niezbędnej do przechowywania kopii zapasowych. Technologia ta sprawdza się też jako mechanizm eliminacji powtórzeń w każdym rodzaju plików, np. załącznikach poczty elektronicznej, kopiach dokumentów tekstowych, arkuszy, obrazów graficznych itp., choć tutaj jej efektywność jest znacznie niższa.

Techniki zwiększania efektywności

Typowe oszczędności pamięci w wyniku zastosowania deduplikacji

Metody deduplikacji są różne. Odpowiednie mechanizmy mogą być instalowane w serwerze będącym źródłem plików, urządzeniach pamięci masowej, bibliotekach VTL lub mogą być oprogramowaniem niezależnym lub zintegrowanym z aplikacją do backupu, dedykowanymi urządzeniami typu appliance lub oprogramowaniem dodatkowo instalowanym w macierzach dyskowych. W praktyce każde z tych rozwiązań ma swoje wady i zalety. Zależnie od stosowanej metody różne są wymagania w zakresie przepustowości sieci, wielkości pamięci buforowej lub niezbędnej mocy przetwarzania.

Oprogramowanie deduplikacyjne jest instalowane w pobliżu źródła danych, a więc na serwerze, który analizuje informacje i przesyła do pamięci masowej tylko informacje, które uległy modyfikacji. Tego typu rozwiązanie wymaga odpowiednio dużej mocy obliczeniowej, ale jednocześnie pozwala na istotne zmniejszenie wymagań dotyczących przepustowości sieci.

Innym rozwiązaniem jest przesyłanie plików do repozytorium danych i dopiero tam analiza i eliminacja powtarzających się informacji przed ich zapisem w pamięci masowej. To pozwala na odciążenie serwerów od konieczności wykonywania obliczeń, lecz powoduje wzrost obciążenia sieci.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200