Napęd na cztery trendy

Trend 2: Szybsze procesory, większa konsolidacja

Większość przedsiębiorstw poznała już zalety wirtualizacji, przejawiające się konsolidacją serwerów. Duże wrażenie robi stosunek wirtualnych serwerów do fizycznych - wyrażany często liczbą dwucyfrową. Dojrzałość i niezawodność technik wirtualizacji stale rośnie, więc coraz więcej przedsiębiorstw chce uruchamiać coraz większą liczbę wirtualnych maszyn na pojedynczym systemie. Umożliwiają to ciągle szybsze procesory. Nowe układy oferują coraz większą wydajność liczoną na jeden rdzeń oraz coraz więcej rdzeni na pojedynczy procesor. Dzięki nim można uruchomić więcej wirtualnych serwerów na pojedynczej platformie bez strat wydajnościowych czy funkcjonalnych całego systemu. Konsolidacja nigdy nie była jeszcze tak rozwinięta i tak atrakcyjna cenowo.

Ale konsolidacja w centrum danych nie może wymknąć się spod kontroli. Projekty wirtualizacji serwerów łatwo jest obronić przed zarządem, wykazując cięcie kosztów zarówno na poziomie inwestycyjnym, jak i operacyjnym. To jednak nie znaczy, że wdrażanie wirtualizacji jest procesem odpornym na błędy. Pułapki, takie jak nieodpowiednie planowanie, błędne założenia czy niemożność szybkiego wykrywania powdrożeniowych usterek, czają się na zespół projektowy na każdym kroku.

Planowanie jest szczególnie istotną sprawą w przypadku zarządzania centrum danych z nie najnowszym sprzętem lub przy ograniczonym budżecie. Kiedy w użyciu jest mniejsza liczba serwerów, to przedsiębiorstwa popełniają często błąd, polegający na drastycznym cięciu nakładów na wsparcie techniczne i technologie backupu. W rzeczywistości zaś powinny kłaść szczególny nacisk na sprawy związane z bezpieczeństwem. Niezwracanie uwagi na błędy w rejestrach i inne generowane przez system wskazówki są największym powdrożeniowym grzechem w projektach konsolidacyjnych. Zabieranie się do konsolidacji bez pełnego zrozumienia związanych z nią technologii i wymagań jest prostym krokiem do pogrzebania projektu zaraz na starcie.

Trend 3: Optymalizacja infrastruktury

Idącą najdalej koncepcją optymalizacji infrastruktury jest dziś modularne data center. Idea zakłada zestaw prekonfigurowanych serwerów, pamięć masową oraz sprzęt zasilający i chłodzący, umieszczone np. w kontenerze i mogące być szybko uruchomione oraz zarządzane po kosztach mniejszych niż tradycyjnie zbudowane centrum danych.

Choć brzmi to jak wizja przyszłości, już teraz dostawcy, tacy jak HP, IBM do spółki z APC czy Sun, mają w ofertach modularne centra danych. Projekt tej ostatniej - Blackbox - to 6-metrowy kontener ładowany na ciężarówkę i dowożony do klienta, parkowany obok budynku jego firmy i podłączany do sieci energetycznej. Wewnątrz znajduje się zintegrowany system zasilania, chłodzenia oraz stelaż, w którym można zainstalować wymagane przez klienta urządzenia.

Są już firmy na świecie używające centrów danych w kontenerach - na zewnątrz zabudowań, z optymalizowanymi zasobami serwerowymi, pamięcią, siecią, zasilaniem i chłodzeniem. To nie znaczy jednak, że centrum danych zmienia się już na naszych oczach w rząd przyczep na parkingu. Ale firmy, którym zaczyna brakować miejsca, energii i wydajności, mogą wykorzystać pomysł centrum danych "z pudełka" i wcielić zastosowane rozwiązania w swoim klasycznym data center.

Składanie centrum danych z klocków jest znacznie tańsze, niż budowanie go za jednym zamachem do ostatecznej, z góry zaplanowanej wielkości, która po jakimś czasie i tak okaże się za mała.


TOP 200