Przyszłość przetwarzania

Obecnie macierze dyskowe przechowują pliki o różnej strukturze. Można jednak zauważyć trend, w którym zamiast wielu różnych obiektów, przechowuje się obrazy maszyn wirtualnych.

W przyszłości będziemy korzystać z nieco innych aplikacji, przy czym większość z nich będzie webowych, zintegrowanych z innymi usługami. Dużą rolę nadal będą odgrywać sieci społecznościowe, które charakteryzują się nie tylko dużym obciążeniem, ale również jego fluktuacją. Połączenia do serwisów, takich jak Facebook czy Twitter, będą wymagały obsługi API o wysokiej skalowalności, pojawią się także nowe typy interakcji z aplikacjami uruchamianymi centralnie. Komplementarnie do nich będą rozwijane nowe urządzenia mobilne, które będą następcami dzisiejszych smartfonów i tabletów, a zatem niezbędne będą aplikacje, które w tym środowisku będzie można uruchomić. Do konstrukcji tych aplikacji będą wykorzystywane inne frameworki niż te, których używamy obecnie, a zatem zmieni się nie tylko konstrukcja aplikacji, ale także obciążenie przez nią generowane.

SAN jest zbyt drogi, użyjemy lokalnych dysków

Obecnie większość centrów przetwarzania danych korzysta w większym lub mniejszym stopniu z centralizowanego składowania danych za pomocą sieci SAN. W przyszłości, razem ze wzrostem wymagań odnośnie do mocy obliczeniowej, niezbędne będą zmiany także podsystemu składowania danych, gdyż wdrożenia z użyciem SAN będą zbyt kosztowne dla rozproszonych aplikacji. Wzrośnie zatem wykorzystywanie lokalnych dysków oraz pamięci podręcznej, powstaną nowe projekty, które umożliwią uruchomienie rozproszonych baz danych (co obecnie oferuje projekt Casandra oraz baza Riak), dostarczenie zasobów z wysoką skalowalnością (obecnie dla baz danych oferuje to GemFire, składnik vFabric Cloud Platform) oraz technologie zarządzania zasobami. Kluczem powinna być jednak standaryzacja. Storage wykorzystujący IP utworzy spójną przestrzeń nazw, łącząc się w struktury nazywane Scale Out Network Storage. W ten sposób będzie można zapewnić skalowalność nieosiągalną w obecnie dostępnych urządzeniach. Z kolei statyczną zawartość będzie można hostować za pomocą Blob Storage, przechowując obrazy i inną treść w bardzo tani sposób.

Przechowujemy pliki VM

Obecnie macierze dyskowe przechowują pliki o różnej strukturze, zachowujące się w różny sposób. Można jednak zauważyć pojawiający się trend, podtrzymywany przez dostawców storage, w którym zamiast wielu różnych obiektów, przechowuje się obrazy maszyn wirtualnych. Obecnie wiele macierzy jest już optymalizowanych pod kątem przechowywania maszyn wirtualnych. Trend ten będzie nadal wzmacniany, w nowych rozwiązaniach obsługa dysków maszyn wirtualnych i optymalizacja wydajności pod tym kątem będzie jedną z kluczowych opcji.

Sieć wirtualna, przewody prawdziwe

W nowych centrach przetwarzania danych sieci będzie stosowana na szeroką skalę, dostarczając połączeń tam, gdzie są potrzebne. Z kolei sam transport się uprości, gdyż będzie się zajmował tylko przesyłaniem pakietów, resztę załatwi oprogramowanie. Usługi sieciowe będą uruchamiane razem z programowymi, zatem nie będzie potrzebna olbrzymia ilość load balancerów sprzętowych, a wszystko, włącznie z narzędziami do zapewnienia bezpieczeństwa, przeniesie się do oprogramowania. Trend ten jest już doskonale widoczny w postaci wirtualizowania zapór sieciowych, ponadto pojawia się pomysł wirtualizacji całych sieci LAN, tworząc VXLAN.

Aby przenieść maszynę między sieciami o innej adresacji, niezbędne jest reprogramowanie sieci. Tymczasem w VXLAN występuje enkapsulacja MAC w pakiecie IP (czyli Layer 2 over Layer 3), a pakiety IP są przesyłane dalej normalnie. Proces ten można wykonać w oprogramowaniu, na przełącznikach w szafie, a nawet w kartach sieciowych.

Bezpieczeństwo i izolacja

Tradycyjne rozwiązania zabezpieczeń bazują na adresie i obecności maszyny. W nowym podejściu, zamiast przypięcia do maszyny i adresu zarządzanie bezpieczeństwem do firmowej tożsamości użytkownika. Jest to niezbędne, by przenieść do chmury zarządzanie dostępem do aplikacji, rozwiązując jednocześnie problem komunikacji między maszynami, gdyż założenia związane z tożsamością (w tym role użytkownika) przekładają się łatwo na reguły komunikacji między maszynami i zasobami. Rozwiąże to problem "nosy neighbour" - aplikacji, które mogą być nastawione na przechwytywanie danych.

Wiele serwerowni, jedna polityka

W miarę rozwoju aplikacji firmy będą nastawione na skalowanie zadań między datacenter. Wielka ilość maszyn wirtualnych sprawi, że niezbędne będą narzędzia, które zapewnią zarządzanie zasobami na podstawie przyjętych kryteriów. Dla każdej aplikacji utworzona zostanie polityka, która opisuje wymagania dostępności, czasu odtworzenia, backupu, wydajności oraz bezpieczeństwa, a narzędzie samo wybierze właściwą dla tej aplikacji serwerownię za optymalne pieniądze. To samo dotyczy połączenia chmur prywatnych i publicznych, gdyż będzie można nałożyć te same reguły eksploatacji w obu światach.

Jaki będzie serwer w 2014 r.

Aby podołać nowym obciążeniom, maszyny w przyszłości będą musiały ulec zmianie, przy czym kierunek tych zmian wydaje się jasny - zamiast wieloprocesorowych pojedynczych komputerów, z obciążeniem poradzą sobie mocno konsolidowane zestawy niewielkich serwerów.

Raghu Raghuram, wiceprezes i dyrektor generalny działu wirtualizacji i platform cloud computing w firmie VMware mówi: "W 2014 roku typowy serwer będzie miał dwa szesnastordzeniowe procesory, około 300 GB RAM i będzie mógł hostować około 320 maszyn wirtualnych. Maszyna ta będzie zaprojektowana pod kątem środowisk o ultrawysokiej gęstości i razem z nią zmieni się krajobraz przetwarzania danych. Całe data center będzie w 90% złożone ze standardowych klocków".