Przyszłość danych i serwerów

Wirtualizacja przyniosła wiele zmian w centrach przetwarzania danych. Przed firmami, które z niej korzystają, stoi wiele wyzwań, nieznanych w tradycyjnym data center.

Podstawowym wyzwaniem, z którym muszą poradzić sobie firmy, jest obserwowany w ciągu ostatnich pięciu lat, radykalny wzrost ilości składowanych danych. By uniknąć części problemów, dostawcy rozwiązań zaczęli wprowadzać techniki, takie jak deduplikacja i kompresja.

Zmiany w podejściu do zarządzania firmowym data center związane są także z pojawieniem się technologii wirtualizacji całych systemów wraz z aplikacjami. Skutkiem wirtualizacji jest większe obciążenie centralizowanych zasobów składowania danych niż w przypadku instalacji rozproszonych. Par Botes, wiceprezes odpowiedzialny za technologie w firmie EMC w regionie Azji, Japonii i Pacyfiku, mówi: "Wirtualizacja działa najlepiej, gdy wszystkie systemy mogą komunikować się ze wszystkimi typami i zasobami storage. W przeszłości do sieci SAN dołączano niewiele systemów, obecnie może z nią pracować każda maszyna wirtualna. To rodzi mnóstwo problemów związanych z bezpieczeństwem składowanych danych, kontrolą dostępu i uruchamianiem aplikacji. Zmiany obejmują o wiele więcej niż tylko skalowalność, wiążą się ze zmianą całej architektury aplikacji".

Zobacz również:

  • Wirtualizacja aplikacji
  • VMware Tanzu – nowoczesna platforma mikroserwisowa.
  • Grafika w systemach serwerowych, czyli wirtualizacja grafiki w usługach chmurowych

Dane pod kontrolą

Firmy muszą stawić czoła zagrożeniom związanym z możliwością przechwycenia przesyłanych danych. Przenoszenie danych w sieciach IP sprawia, że każdy sniffer może przechwycić i dekodować strumień informacji. Firmy coraz częściej zauważają problem i starają się, by ruch przechodzący między centrami przetwarzania danych był szyfrowany w wirtualnych sieciach prywatnych. Niektóre dzielą ruch na krytyczny i niekrytyczny. Informacje najbardziej istotne nie wychodzą poza własną podsieć organizacji. Utrata informacji niekrytycznych nie będzie stanowić wielkiego problemu dla firmy.

Tego typu zabezpieczenia są niewystarczające w przypadku wirtualizacji i usług cloud computing. "Problem utraty danych jest poważny, gdy w grę wchodzi wirtualizacja. Dostawcy usług obsługujący wielu klientów muszą liczyć się z zagrożeniem polegającym na wycieku informacji między systemami obsługiwanymi dla różnych klientów. W takim przypadku najczęściej stosowanym założeniem jest dostęp tylko do ruchu, który jest przeznaczony dla danego klienta i danej maszyny. Wymaga to opracowania założeń polityki bezpieczeństwa i separacji komunikacji różnych klientów, także w sieci SAN" - wyjaśnia Par Botes.

Fibre Channel, iSCSI, Ethernet - wszystko razem

Tradycyjnie stosowanym w serwerowniach protokołem jest FibreChannel, który zapewnia wydajność, niskie opóźnienia i niezawodność. W mniejszych instalacjach stosuje się iSCSI, który przy niedużym obciążeniu sprawdza się także w środowiskach wirtualizowanych. Są sieci, które przenoszą jednocześnie ruch SAN i NAS, tworząc zunifikowaną infrastrukturę połączeń. "Jestem przekonany, że niedługo będziemy mieli jedną sieć. Sieć, która przesyła ruch między systemami, czyli system-system, razem z ruchem związanym z dostępem systemów do zasobów storage. Będą stosowane protokoły blokowe, dane będą przesyłane za pomocą IP, powstanie z tego sieć, która potrafi przenieść każdy ruch. IP będzie nośnikiem treści, zawartością będzie ruch systemowy i blokowy, zależnie od potrzeb, w tej samej sieci" - przewiduje Par Botes.

Organizacja wszystkich działań

Hypervisor komunikuje się z wyższymi i niższymi warstwami. Przykładem interakcji jest integracja hypervisora z macierzami dyskowymi. Tworzenie interfejsów nie jest najważniejszym zadaniem stojącym przed inżynierami. Według Botesa, główne zadania dotyczą orkiestracji, czyli spójnego zarządzania wszystkimi zasobami, serwerami, siecią i przestrzenią dyskową. Dotyczy to działań związanych z dostarczaniem zasobów i odzyskiwaniem ich po zwolnieniu, realizacji połączeń między serwerami, macierzami dyskowymi, zasobami zewnętrznymi, a także grupami maszyn wirtualnych. Par Botes wyjaśnia: "Zarządzanie wszystkimi zasobami jest o wiele trudniejsze, gdy w grę wchodzi duża skala wdrożenia, zależność między aplikacjami oraz konieczność zachowania wymagań oprogramowania odnośnie do zasobów i połączeń. Następnym krokiem rozwoju powinna być inteligentna automatyzacja wszystkich działań między aplikacjami a hypervisorem i zasobami".

Backup na dyskach, taśma do archiwum

Niektóre przedsiębiorstwa już zmieniły główne medium kopii bezpieczeństwa, realizując backup na deduplikowane zasoby dyskowe. Nie wszystkie firmy chcą migrować w tym kierunku. Można znaleźć takie, które nadal korzystają z taśm.

Par Botes uważa, że "organizacje, od których wymaga się długotrwałego przechowywania danych, na przykład ze względu na regulacje prawne lub korporacyjne, nadal będą korzystać z taśm magnetycznych. Część klientów przejdzie do modelu, w którym dane będą przechowywane na deduplikowanym medium dyskowym, a na taśmie, by zachować zgodność z regulacjami prawnymi. Ze względu na bardzo szybki rozwój technologii deduplikacyjnych, trudno ocenić, czy nie nastąpią dalsze zmiany". Dziś deduplikacja jest stabilną, standardową technologią stosowaną w korporacjach, a nawet w firmach średniej wielkości. Pokazała swoją przydatność głównie za sprawą wydajności i szybkości odtworzenia kopii.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200