Szybkość wielordzeniowa

Przede wszystkim mniejszy pobór mocy

Intel, dominujący na rynku procesorów oraz serwerów podstawowej i średniej klasy, zapowiada wprowadzenie w drugiej połowie 2006 r. trzech nowych rodzin układów Conroe, Merom i Woodcrest przeznaczonych odpowiednio dla komputerów PC, notebooków i serwerów. Układy te nie będą jednak oparte na technologii Netburst będącej podstawą architektury obecnie produkowanych układów Pentium 4 i Xeon.

Nowe procesory, choć opracowane od podstaw, będą w znacznym stopniu wzorowane na Pentium M. Według Intela, ich konstruktorzy koncentrowali wysiłki na uzyskaniu możliwie najwyższej wydajności na jednostkę pobieranej mocy, a nie - jak do niedawna - tylko najwyższej wydajności. Zmniejszanie poboru mocy jest obecnie jednym z podstawowych celów konstruktorów. Choć nie należy oczekiwać, że pojedyncze układy będą zapewniały mniejsze zużycie energii, gdyż będą wyposażone w dwie lub więcej jednostek CPU umożliwiających zwiększenie wydajności. Warto zwrócić uwagę, że ostatnio duży postęp w minimalizacji mocy uzyskało AMD, której układy Opteron są bardziej energooszczędne od Xeon, co - jak twierdzą np. przedstawiciele Sun Microsystems - było jedną z ważnych przyczyn decyzji o wykorzystaniu w nowych serwerach tej firmy właśnie platformy AMD, a nie układów Intela. Nowa generacja procesorów Intela może zmienić ten obraz.

Wszystkie nowe układy Intela będą działać w trybie 64-bitowym, zawierać wiele rdzeni obliczeniowych oraz umożliwiać wirtualizację systemów i zasobów. Będą one także wyposażone w zaawansowane mechanizmy zabezpieczeń (technologia LaGrande) oraz funkcje zdalnego zarządzania AMT (Active Management Technology).

Najważniejsze modyfikacje architektury dotyczą ponad dwukrotnego skrócenia długości przetwarzanych potoków danych (pipeline), z 31 (Netburst) do 14; zwiększenia liczby instrukcji wykonywanych w jednym cyklu zegara do 4 (podobnie jak w Itanium 2) oraz współdzielenia wewnętrznej pamięci podręcznej przez rdzenie obliczeniowe.

To ostatnie rozwiązanie, którego znaczenie dla wydajności jest bardzo istotne, ma się pojawić już w dwurdzeniowych układach Yonah, których premiera jest planowana na początek 2006 r.

W nowych układach Intel będzie musiał poradzić sobie z największą dotychczas bolączką, dającą o sobie znak zwłaszcza w przypadku układów wielordzeniowych. Chodzi o architekturę szyn FSB łączących procesor z kontrolerami pamięci i samą pamięcią RAM. Na razie Intel nie prezentuje w tej dziedzinie nic konkretnego, ale zdaje się, że na dłuższą metę będzie musiał coś zaproponować - zwłaszcza że kontroler pamięci zintegrowany z procesorem stosowany w układach AMD Opteron działa bardzo efektywnie.

Inżynierowie Intela ostrożnie przyznają, że wprowadzenie zintegrowanych kontrolerów pamięci stanie się niezbędne "w pewnym momencie rozwoju tej architektury". Nikt jednak nie chce ujawnić, kiedy to może nastąpić. Niektórzy analitycy spekulują, że Intel wprowadzi takie rozwiązanie w 2007 r. wraz z nową generacją chipsetów wykorzystujących ujednoliconą architekturę umożliwiającą obsługę procesorów zarówno klasy Xeon, jak i Itanium.

Wirtualizacja w standardzie

Systemy umożliwiające wirtualizację serwerów i zasobów pamięci masowej przyciągają uwagę coraz większej liczby potencjalnych użytkowników. Dotychczas tego typu technologie były zarezerwowane dla rozwiązań korporacyjnych. Już wkrótce staną się one jednak standardowym - lub co najmniej opcjonalnym - elementem infrastruktury IT, również przeznaczonej dla małych i średnich firm. Ostatnio systemy do wizualizacji zaczynają migrować w kierunku rynku masowego i znajdować zastosowanie również we względnie tanim sprzęcie przeznaczonym na rynek masowy.

IBM już wprowadził modele serwerów w cenie kilku tysięcy dolarów umożliwiające implementację mechanizmów wirtualizacji i mikropartycjonowania. Również Intel zapowiada ewolucję platform w tym właśnie kierunku. Mają one być wyposażone w takie technologie, jak: Active Management Technology - udostępniającą zaawansowane funkcje zdalnego zarządzania komputerami PC; Vanderpool Technology - pozwalającą na dzielenie zasobów na wiele zadań; LaGrande - zapewniającą sprzętowo-programowe zabezpieczanie komputerów przed włamaniami i wirusami; czy I/O Acceleration Technology - nowe mechanizmy pozwalające na zwiększenie wydajności przetwarzania operacji wejścia/wyjścia.

AMT umożliwia zdalne zarządzanie serwerami lub komputerami podłączonymi do sieci przez realizację takich operacji, jak ładowanie uaktualnień, modyfikacje konfiguracji lub uruchamianie procedur diagnostycznych. Ponieważ AMT działa w niższej warstwie niż system operacyjny, funkcje tej technologii mogą być uruchamiane nawet wówczas, gdy komputer został przez użytkownika wyłączony. Nie wymagają załadowania oprogramowania systemowego.

W połączeniu z technologią wirtualizacji, tego typu rozwiązanie może znacznie zwiększyć bezpieczeństwo i dostępność systemów. Jeśli np. komputer zostanie zainfekowany przez wirusy, w klasycznej sytuacji, zostaje odłączony od sieci na czas niezbędny do instalacji odpowiednich poprawek oprogramowania i ponownego uruchomienia systemu. Implementacja VT i AMT umożliwia zaś uruchomienie nowej, chronionej instancji systemu operacyjnego i wykorzystanie jej do obsługi połączeń sieciowych oraz zdalnego załadowania poprawek aktualizacyjnych.


TOP 200