Przyszłość zaczyna się dziś

W ciągu kilku lat w centrach danych zajdą poważne zmiany. Wizualnie zmieni się niewiele, jednak pod względem logiki działania i architektury będzie to zupełnie nowa jakość.

W ciągu kilku lat w centrach danych zajdą poważne zmiany. Wizualnie zmieni się niewiele, jednak pod względem logiki działania i architektury będzie to zupełnie nowa jakość.

Czy będziemy mieli do czynienia ze światem "na żądanie" (on-demand), o którym mówi IBM? A może będzie dominować grid computing, o którym mówią Oracle, Sun Microsystems i inni? A może świat IT zmierza ku utility computing, autonomic computing, wirtualizacji lub czemuś jeszcze innemu?

Giganci świata informatyki: Cisco Systems, EMC, HP, Microsoft i wspomniani wcześniej walczą o umysły i serca informatyków i decydentów nie bez powodu. Zwycięzcy boju o architekturę informatyczną przyszłości będą z niej czerpać korzyści przez najbliższe dekady - wystarczy spojrzeć na trwałość duetu Microsoft-Intel i wypromowanej przez niego architektury klient/serwer.

O tym, jaki model architektury systemów będzie dominować za kilka lat, szefowie działów informatyki powinni myśleć już teraz, gdyż nadchodzące zmiany będą dotyczyć praktycznie każdej warstwy infrastruktury. Przymierzając się do rozpisania budżetu, wypada mieć jasność choćby co do głównych idei i planów największych dostawców technologii.

Jaka jest przyszłość?

Centrum danych stanowi rdzeń środowiska informatycznego, w którym są uruchamiane kluczowe aplikacje wspierające działanie przedsiębiorstwa. Istniejąca architektura musi jednak coraz bardziej uwzględniać wzrastające znaczenie aplikacji internetowych i sieci obejmujących nie tylko samo przedsiębiorstwo, ale także jego dostawców i partnerów handlowych.

Zmiany będą dotyczyć przede wszystkim warstwy logicznej - tego, w jaki sposób zasoby są uruchamiane, zarządzane i zabezpieczane w nowym sieciowym krajobrazie. W centrum danych przyszłości aplikacje zostaną zbudowane z komponentów, a usługi będą obejmować całe "rozszerzone" przedsiębiorstwa (firmy wraz z ich partnerami biznesowymi). Pamięci masowe, moc obliczeniowa, zasoby sieciowe będą całkowicie zwirtualizowane. Dodatkowo, w nowym centrum danych nie przewiduje się miejsca dla urządzeń, do których nie ma dostępu o dowolnej porze i z dowolnego miejsca. Wszystko to nie wymaga dokonywania zmian w warstwie fizycznej.

Za nową architekturą przemawia wiele argumentów. Po stronie klientów presję wytwarzają wymagania dotyczące zwrotu z inwestycji w informatykę, zwłaszcza obniżenia kosztów jej wdrażania i utrzymania. Po stronie dostawców informatyki motywacją jest poszukiwanie sposobu na uatrakcyjnienie oferty, a także próba odejścia od sprzedaży licencji ku sprzedaży usług.

Do wyboru, do koloru

W myśl koncepcji on-demand oraz utility computing zasoby obliczeniowe są dostarczane i konsumowane na podobieństwo mediów, takich jak woda, gaz czy prąd zgodnie z aktualnym zapotrzebowaniem. Usługi takie może dostarczyć przedsiębiorstwu wewnętrzny dział IT lub zewnętrzny dostawca.

Idea autonomic computing przewiduje, że zasoby IT są projektowane w sposób, który stawia minimalne wymagania wobec ich obsługi przez administratorów. Rozwiązania tego typu dysponują mechanizmami, które umożliwiają im korygowanie występujących problemów bez interwencji człowieka.

Grid computing (przetwarzanie rozproszone), gdzie nieużywane zasoby IT rozsiane po całym przedsiębiorstwie bądź nawet znajdujące się w wielu organizacjach, jest wykorzystywane, by zaspokoić zmienne zapotrzebowanie na moc obliczeniową.

Wirtualizacja oznacza, że pamięci masowe, moc obliczeniowa i usługi sieciowe są dostarczane jako pojedyncze zasoby (choć składające się faktycznie z wielu elementów, np. wiele macierzy dyskowych jest dostępnych jako pojedyncza przestrzeń), z których korzysta się zgodnie z bieżącym zapotrzebowaniem.

Mnogość nowych idei i koncepcji wprowadza pewien zamęt. Nowe rozwiązania prowadzą bowiem do zacierania różnic pomiędzy tradycyjnymi liniami produktowymi i poszczególnymi funkcjami elementów infrastruktury informatycznej. Dodatkowo oznacza to, że jeżeli klient zdecyduje się wdrażać rozwiązania kilku dostawców jednocześnie, ich działanie, poprzez fakt hołdowania innym filozofiom, będzie niespójne. To dzieje się nawet już teraz.

Z drugiej strony warto pamiętać, że wszelkie rewolucje dają szanse na zwiększenie kontroli ludu nad władzą, a więc także klientów nad dostawcami technologii. Rewolucyjne zmiany w centrach danych to dla producentów sprzętu i oprogramowania okazja do pozyskania nowych klientów, ale jednocześnie ryzyko utraty tych, którzy dotychczas byli lojalni względem marki. Innymi słowy, żadna firma, nawet największa, nie będzie czuć się pewnie w negocjacjach związanych z budową nowego ładu w centrum danych. Grzechem byłoby tego nie wykorzystać.

Warstwa po warstwie

Serwery. W samym "sercu" zmian, jakim będzie podlegać centrum danych, leży strategiczny wybór platform serwerowych. Która z nich może w optymalny sposób obsługiwać tradycyjne aplikacje, takie jak ERP i CRM, oraz te nowe, internetowe, "zorientowane na usługi"? Wyboru można dokonać pomiędzy standardowymi serwerami Intela, platformami zamkniętymi a serwerami blade, przy jednoczesnym przygotowywaniu się do popularyzacji systemów 64-bitowych, a także technologii wirtualizacyjnych i grid computing. Alternatywą jest skorzystanie z jednej z ofert w rodzaju on-demand, co de facto oznacza oddanie przetwarzania w outsourcing.

Platformy. W następnej kolejności trzeba zdecydować, który z wielkiej triady systemów operacyjnych - Unix, Linux i Windows - najlepiej nadaje się do poszczególnych zadań. W świecie Microsoftu można oczekiwać z pewnością rozmaitych usprawnień w obrębie samego systemu operacyjnego i pozostałych głównych produktów. Będą one w coraz szerszym zakresie obsługiwać pracę grupową i wspierać integrację aplikacji. Trzeba także wybrać platformę rozwoju dla aplikacji internetowych następnej generacji. W tym celu konieczne jest skoncentrowanie się na problemach związanych ze standardami, bezpieczeństwem i zarządzalnością.

Infrastruktura sieciowa. Musi sprostać wyzwaniom stawianym przez pracę grupową oraz eksplozję aplikacji internetowych. Trzeba się przygotować do zapewnienia usług VoIP oraz aplikacji wykorzystujących protokół SIP (Session Initiation Protocol). W większości przypadków oznacza to, że konieczna jest modernizacja sieci szkieletowej i przełączników w centrum przetwarzania danych do technologii Ethernet 10 Gb/s. Infrastruktura brzegowa natomiast powinna zostać rozbudowana do 1 Gb/s. W związku z tym, że nowe centrum danych będzie sięgać poza tradycyjne granice przedsiębiorstwa, infrastruktura WAN musi być przystosowana do obsługi rozproszonych aplikacji i dostępu do danych z dowolnego miejsca.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200