Serwery i pamięć masowa - efektywność ponad wszystko

Do zakupowego boomu w IT wciąż daleka droga, ale stabilniejsza sytuacja gospodarcza i nowe potrzeby skłaniają do stopniowego uwalniania budżetów i rozpoczynania lub wznawiania rozpoczętych projektów. W tym roku, podobnie jak w minionym, decyzjami zakupowymi kierować będzie chęć zwiększenia efektywności i wydajności.

Wirtualizacja i konsolidacja, rosnąca moc obliczeniowa i jej efektywne wykorzystanie oraz obniżanie poboru energii to dominujące trendy na rynku serwerów. W portfolio producentów serwerów na dobre zadomowiły się modele, zaprojektowane specjalnie na potrzeby wirtualizacji. Urządzenia te cechuje przede wszystkim duża liczba wielordzeniowych procesorów oraz pamięci operacyjnej RAM, co maksymalizuje moc obliczeniową dostępną do wykorzystania przez maszyny wirtualne. Wiele modeli serwerów oferuje również możliwość wyposażenia ich w , co jeszcze bardziej podnosi poziom wydajności całego systemu. Nie maleje popularność serwerów kasetowych (blade), stanowiących najbardziej dynamicznie rozwijający się segment rynkowy. Warto również zwrócić uwagę na oferowane przez niektórych producentów Rozwiązania typu “unified", które składają się z serwerów, macierzy dyskowej i łączącego je przełącznika, oferując gotowy zestaw, na którym można wdrożyć systemy produkcyjne.

Patrząc na pamięć masową w centrach danych, głównym problemem staje się efektywne i optymalne sprostanie nieustannemu przyrostowi danych, zwłaszcza strukturalnych, poprawa wydajności działania oraz konwergencja i uproszczenie procesu zarządzania posiadanymi zasobami. Producenci rozwiązań oferują w swoich portfolio wiele metod i technologii, które mogą pomóc w poradzeniu sobie z tymi problemami. Technologie lepszej utylizacji przestrzeni pamięci masowej, konsolidacja, konwergencja czy archiwizacja i optymalizacja składowania danych - mają przyczynić się do efektywniejszego wykorzystania zasobów pamięci masowej w centrum danych.

Deduplikacja

Możliwe miejsca do wprowadzenia deduplikacji danych w systemie centralnego backupu

Możliwe miejsca do wprowadzenia deduplikacji danych w systemie centralnego backupu

Technologią, ostatnimi czasy cieszącą się powszechnym zainteresowaniem i coraz częściej implementowaną przez firmy i instytucje, jest deduplikacja. Jej działanie polega na eliminacji redundantnych bloków danych i zastąpieniu ich kolejnych powtórzeń odsyłaczami do danych oryginalnych. W efekcie na dostępnych zasobach pamięci masowej zostają zapisane tylko unikalne dane. W zależności od osiąganych współczynników deduplikacji pozwala to w pewnym stopniu ograniczyć konieczność rozbudowy macierzy o kolejne półki dyskowe. Z kolei mniej fizycznego sprzętu w szafie rack to mniejszy pobór energii do zasilania oraz chłodzenia, a więc korzyść w postaci niższych rachunków za pobór energii wymaganej do zasilania i chłodzenia serwerowni. Zastosowanie technologii deduplikacji ma sens w środowiskach, które charakteryzują się dużą powtarzalnością danych. Należą do nich głównie systemy tworzenia kopii zapasowych backup, środowiska wirtualne, serwery plikowe, czy też niektóre środowiska bazodanowe. Technologia deduplikacji została ostatnio dodana do wielu aplikacji służących do backupu danych. Patrząc na rozwiązania dostępne na rynku, w zależności od charakterystyki środowiska i wymagań klientów, proces deduplikacji może zachodzić na źródle, a więc na serwerze, z którego dane są wysyłane do serwera backupu, na samym serwerze backupu lub na urządzeniu dyskowym, służącym jako repozytorium kopii zapasowych. Wiele z dostępnych na rynku produktów oferuje tzw. globalną deduplikację, a więc obejmującą swoim zasięgiem np. kilka lokalizacji, co usprawnia replikację danych poprzez łącza WAN między oddziałami a centralą. Przekłada się to na obniżenie kosztów związanych z wymaganą przepustowością łączy, czy też administrowaniem rozproszonym środowiskiem. Deduplikację oferują również m.in. urządzenia plikowe - NAS oraz wirtualne biblioteki taśmowe - VTL.


TOP 200