ARM kontra x86

Procesor ARM RISC zbliża się powoli do stanu, w którym może być alternatywą dla procesorów x64 w środowisku serwerowym.

ARM jest prawie wszędzie

Od roku 1990 wyprodukowano około 15 miliardów mikroprocesorów ARM, obecnie technologię tę licencjonuje ponad 200 firm, dostarczając co najmniej 600 projektów. Około 95 procent wszystkich urządzeń przenośnych, takich jak telefony, pracuje pod kontrolą procesorów ARM, przy czym udział tej platformy w ogólnej liczbie urządzeń elektronicznych jest rzędu jednej czwartej.

Jak mówi Warren East, prezes Arm Holding, serwery wykorzystujące wielordzeniowe procesory ARM powinny pojawić się na rynku już w przyszłym roku. Według niego obecna architektura ARM, która powstała do przetwarzania danych na kliencie, może być z powodzeniem wykorzystywana w środowisku serwerów i wiele aplikacji serwerowych może być uruchamiane na procesorach ARM już teraz. East potwierdza w ten sposób spekulacje na temat wykorzystania technologii ARM w środowisku serwerowym, które powstały po zakupie firmy Agnilux przez Google, a także po ofertach pracy, które opublikował Microsoft. Kolejne nieoficjalne informacje dotyczą wykorzystania serwerów ARM w datacenter Facebooka w Oregonie oraz w dużych serwerowniach Apple, zlokalizowanych w Północnej Karolinie. Prawdopodobnie bardzo zaawansowane prace prowadzi jednak Google.

Gigaherce, rdzenie i terabajt RAM

Obecnie trwają eksperymenty z czterordzeniowym A9 taktowanym zegarem 2GHz, ale problemem może być zaledwie 32-bitowa przestrzeń adresowa, która ogranicza ilość pamięci operacyjnej do 4 GB. Aby obejść to ograniczenie, specyfikacja architektury ARMv7-A wprowadzi nową opcję dużego rozszerzenia fizycznego adresowania pamięci do 40 bitów. Dzięki temu 32-bitowy rdzeń będzie można połączyć z terabajtową pamięcią operacyjną, co zmniejszy ograniczenie, które obecnie limituje wykorzystywanie procesorów ARM w niektórych zastosowaniach. Aby wykorzystać taki obszar pamięci, niezbędna jest dwustopniowa translacja adresów, która sprawi, że rdzeń będzie "widział" 4 GB, ale funkcjonalnie obsłuży 1 TB. Nadal nie wiadomo czy ciągłe translacje i wirtualizacja pamięci nie spowoduje zbyt dużego spadku wydajności. Z drugiej strony technologia wirtualizacji, która również będzie obecna w nowych procesorach sprawi, że hypervisor będzie mógł zajmować się wirtualizacją pamięci i całość powinna dość sprawnie funkcjonować.

W nowych procesorach będzie wprowadzone wsparcie dla sprzętowej wirtualizacji, w postaci rozszerzeń, które nadają odpowiednie uprawnienia hypervisorowi, pracującemu bezpośrednio na sprzęcie. Hypervisor dzięki temu będzie mógł sprawnie wykorzystać dwustopniową translację pamięci i sprawić, by system operacyjny goszczony wewnątrz hypervisora pracował tak samo, jakby funkcjonalnie posiadał cały procesor do swojej wyłącznej dyspozycji. Nie podano dotąd rozszerzeń i detali dotyczących wirtualizacji urządzeń wejścia/wyjścia.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200