Technologia trafiła pod strzechy

Z punktu widzenia użytkowników najważniejsza jest oczywiście dostępność systemów i aplikacji wykorzystujących przetwarzanie 64-bitowe. Pod tym względem postęp jest znacznie wolniejszy niż chcieliby producenci procesorów, ale zaletą nowej platformy jest wsteczna zgodność, umożliwiająca uruchamianie programów 32-bitowych bez utraty wydajności lub problemów ze zgodnością.

Wirtualizacja w standardzie

Systemy umożliwiające wirtualizację serwerów i zasobów pamięci masowej przyciągają uwagę coraz większej liczby potencjalnych użytkowników. Dotychczas tego typu technologie były zarezerwowane dla rozwiązań korporacyjnych. Już wkrótce staną się one jednak standardowym - lub co najmniej opcjonalnym - elementem infrastruktury IT, również przeznaczonej dla małych i średnich firm. Ostatnio systemy do wizualizacji zaczynają migrować w kierunku rynku masowego i znajdować zastosowanie również we względnie tanim sprzęcie przeznaczonym na rynek masowy.

IBM już zaczął wprowadzać modele serwerów w cenie kilku tysięcy dolarów umożliwiające implementację mechanizmów wirtualizacji i mikropartycjonowania. Również Intel zapowiada ewolucję swoich platform w tym właśnie kierunku. Mają one być wyposażone w takie technologie, jak: Active Management Technology (AMT) - udostępniającą zaawansowane funkcje zdalnego zarządzania komputerami PC; Vanderpool Technology (VT) - pozwalającą na dzielenie zasobów na wiele zadań; LaGrande - zapewniającą sprzętowo-programowe zabezpieczanie komputerów przed włamaniami i wirusami; czy I/O Acceleration Technology - nowe mechanizmy pozwalające na zwiększenie wydajności przetwarzania operacji wejścia/wyjścia.

AMT umożliwia zdalne zarządzanie serwerami lub komputerami podłączonymi do sieci przez realizację takich operacji, jak ładowanie uaktualnień, modyfikacje konfiguracji lub uruchamianie procedur diagnostycznych. Ponieważ AMT działa w niższej warstwie niż system operacyjny, funkcje tej technologii mogą być uruchamiane nawet wówczas, gdy komputer został przez użytkownika wyłączony. Nie wymagają załadowania oprogramowania systemowego. W połączeniu z technologią wirtualizacji VT, tego typu rozwiązanie może znacznie zwiększyć bezpieczeństwo i dostępność systemów. Jeśli np. komputer zostanie zainfekowany przez wirusy, w klasycznej sytuacji, zostaje odłączony od sieci na czas niezbędny do instalacji odpowiednich poprawek oprogramowania i ponownego uruchomienia systemu.

Implementacja VT i AMT umożliwia zaś uruchomienie nowej, chronionej instancji systemu operacyjnego i wykorzystanie jej do obsługi połączeń sieciowych oraz zdalnego załadowania poprawek aktualizacyjnych.

Pierwsza platforma PC o kodowej nazwie Lyndon zawierająca technologie AMT i VT ma się pojawić na rynku już w 2005 r. Premiery takiej platformy serwerowej - Bensley - należy oczekiwać w 2006 r. wraz z pojawieniem się dwurdzeniowych procesorów Xeon Dempsey i chipsetów o kodowej nazwie Blackford.

Nowości na rynku

Wśród innych produktów związanych z systemami do wirtualizacji warto zwrócić uwagę na kilka nowych rozwiązań. Firma Softricity opracowała oprogramowanie SoftGrid, które umożliwia odizolowanie aplikacji od systemu Windows. W tym zakresie ma ono podobną funkcjonalność do aplikacji VMware, które jednak koncentrują się na wirtualizacji systemu operacyjnego, a nie jego współpracy z aplikacjami. Z kolei ARMTech wprowadziła program Aurema przeznaczony do zarządzania wydajnością fizycznych i wirtualnych serwerów. Aurema pozwala zarówno na optymalizację rozkładu obciążenia, jak i monitorowanie zasobów oraz ich wykorzystania np. w celu rozliczenia kosztów utrzymania systemu na podstawie wykorzystania go przez różne oddziały firmy.

Także bardziej znane firmy angażują się w opracowywanie systemów do wirtualizacji. Można tu wymienić BMC Software, który przygotowuje nowe moduły systemu do zarządzania siecią Patrol Performance Assurance for Virtual Servers oraz Patrol for Virtual Servers. Mają one umożliwić dynamiczne zarządzanie wydajnością i obciążeniem wirtualnych serwerów pracujących pod kontrolą systemów VMware.


TOP 200