Pamięć mniej masowa

Gdy zaczyna brakować pamięci, najprostszym i najłatwiejszym rozwiązaniem jest zakup macierzy. Koszt takiej inwestycji, zwłaszcza w przypadku firm MSP, powinien skłonić do szukania bardziej inteligentnych, choć często trudniejszych w realizacji rozwiązań, takich jak wirtualizacja lub deduplikacja danych.

Gdy zaczyna brakować pamięci, najprostszym i najłatwiejszym rozwiązaniem jest zakup macierzy. Koszt takiej inwestycji, zwłaszcza w przypadku firm MSP, powinien skłonić do szukania bardziej inteligentnych, choć często trudniejszych w realizacji rozwiązań, takich jak wirtualizacja lub deduplikacja danych.

27 tys. Petabajtów

taka będzie pojemność pamięci masowej wykorzystywanej w 2010 r. przez firmy z sektora prywatnego.

Wzrost liczby danych zapisywanych w formie elektronicznej to dobra wiadomość dla producentów pamięci masowych, którzy mogą spokojnie planować rozwój biznesu na wiele lat, nie obawiając się spadku popytu. Perspektywy te dotyczą nie tylko dużych centrów danych i odbiorców korporacyjnych, ale również - a może przede wszystkim - firm małych i średnich. Ten masowy rynek potencjalnych odbiorców już od pewnego czasu przyciąga uwagę największych dostawców, takich jak EMC, Hitachi, HP, IBM, Sun i Dell. Systematycznie wprowadzają oni pamięci masowe dla firm MSP, wyposażając je w technologie i rozwiązania do niedawna stosowane tylko w sprzęcie klasy korporacyjnej.

Wybór jest oczywiście znacznie większy, bo małe i średnie firmy mogą skorzystać również z niewielkich pamięci masowych oferowanych przez producentów, którzy od dawna koncentrowali się na rynku małych i średnich przedsiębiorstw lub konsumenckim, a teraz widząc rosnący popyt, rozszerzają swoją ofertę. Najwięksi dostawcy pamięci masowych muszą oczywiście konkurować z tanimi macierzami mniej znanych firm. Ich atutem może być jednak rozszerzenie funkcjonalności o elementy technologii stosowanych w sprzęcie korporacyjnym oraz dołączenie oprogramowania do zarządzania.

Najważniejsze trendy na rynku pamięci masowych

  • Coraz popularniejsze będzie korzystanie z usług związanych z tworzeniem i zarządzaniem kopiami zapasowymi oraz archiwizacją i replikacją danych.
  • Zwiększy się nacisk na integrację systemów pamięci masowej z aplikacjami do generacji i zarządzania treściami.
  • Spadek cen pamięci SSD (Solid State Disk) spowoduje, że zaczną one znajdować zastosowanie na rynku masowym.
  • Zwiększy się popularność usług przechowywania i zarządzania danymi, wykorzystywanych jako pamięć dodatkowa, niezależna od firmowej infrastruktury IT.
  • Pełne szyfrowanie pamięci dyskowych zyska miano powszechnego standardu zabezpieczeń.
  • Oferta systemów integrujących pamięci masowe i serwery stanie się standardem dla rynku MSP.
  • Systematycznie będzie rósł popyt na oprogramowanie do deduplikacji danych, systemy do dynamicznej alokacji pamięci oraz wirtualne biblioteki taśmowe VTL, czyli technologie umożliwiające ograniczenie przyrostu liczby danych.

Źródło: IDC, 2007

Wirtualizacja zmienia backup

Choć możliwość skorzystania z zaawansowanych rozwiązań przez firmy MSP jest niewątpliwie pozytywna, warto zdawać sobie sprawę, że niesie też nowe problemy. Mimo że modele pamięci przeznaczone dla tego segmentu rynku są z reguły prekonfigurowane i przystosowane do względnie łatwego wdrożenia, to i tak stawiają większe wymagania administratorom systemów, którzy muszą mieć większą niż dotąd wiedzę i rozszerzyć swoje umiejętności. Niestety coraz popularniejsze technologie, jak choćby wirtualizacja, nie tylko dają potencjalne zyski i oszczędności, ale stwarzają też nowe problemy i trudności.

50-krotne

tak duże ograniczenie pojemności przechowywanych danych może dać zastosowanie mechanizmów deduplikacji.

Klasyczny system do backupu to zestaw pamięci dyskowych do krótko- i średnioterminowego przechowywania danych oraz pamięci taśmowe do długotrwałej archiwizacji, a do tego oczywiście odpowiednie oprogramowanie zarządzające, takie jak IBM Tivoli lub HP StorageWorks. Tego typu rozwiązania przestają jednak wystarczać w systemach wykorzystujących wirtualizację i wymuszają zmianę strategii tworzenia kopii zapasowych. "Backup staje się jednym z największych problemów dla firm wdrażających wirtualizację" - uważa Stephanie Balaouras, analityk z Forrester Research.

Wynika to z tego, że klasyczne systemy opierały się na relacji jeden do jednego - tworzono jedną kopię każdego serwera fizycznego. Oprogramowanie do zapisu kopii danych było przez lata rozwijane, tak by mogło dobrze obsługiwać sieci SAN, pamięci Fibre Channel, różne modele sprzętu i wersje systemów operacyjnych, ale nie zostało przystosowane do specyficznych wymagań wirtualizacji, gdzie w jednym komputerze często pracuje wiele systemów OS. Obecnie najbardziej popularne są trzy strategie tworzenia kopii bezpieczeństwa w systemach zwirtualizowanych.

Możliwa jest instalacja w każdej maszynie wirtualnej VM odpowiedniego agenta, tworzącego interfejs do standardowego oprogramowania backupowego. Drugą metodą jest utworzenie obrazu maszyny VM, a następnie jego okresowe aktualizowanie, np. przez tworzenie dziennych migawek odpowiedniego LUN (Logical Unit Number). Trzecim rozwiązaniem jest wykorzystanie oprogramowania VMware Consolidated Backup (VCB), które umożliwia tworzenie przyrostowego backupu i odtwarzanie pojedynczych plików, nawet gdy w serwerze fizycznym uruchomionych jest kilkadziesiąt maszyn wirtualnych.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200