Powrót z gwiazd

Rozmowa z Andreasem Bechtolsheimem, współzałożycielem Sun Microsystems, który po 10 latach od odejścia z koncernu wrócił do macierzystej firmy, obejmując stanowisko wiceprezesa ds. technologii sieciowych i koordynatora projektu nowej linii serwerów SunFire x64 znanych jako Galaxy.

Rozmowa z Andreasem Bechtolsheimem, współzałożycielem Sun Microsystems, który po 10 latach od odejścia z koncernu wrócił do macierzystej firmy, obejmując stanowisko wiceprezesa ds. technologii sieciowych i koordynatora projektu nowej linii serwerów SunFire x64 znanych jako Galaxy.

Co sprowadza Pana z powrotem do Sun Microsystems?

Andreas Bechtolsheim

Andreas Bechtolsheim

Opuściłem Suna, by stworzyć firmę, którą później przejęło Cisco. Byłem wówczas zafascynowany możliwościami technologii Gigabit Ethernet, a nie widziałem, by Sun chciał się w nią zaangażować. Dwa lata temu historia znów się powtórzyła. Zafascynowałem się procesorami AMD Opteron. Oczywiście, było już za późno, by tworzyć nową firmę projektującą , dlatego też moja firma skupiła się na jednym segmencie rynku - serwerach wideo. Kiedy Sun ogłosił zamiar wykorzystania procesorów Opteron w serwerach, uznałem to za znak. Dotychczas Sun opierał się na dostawcach OEM z Azji. Ale żeby wyróżnić się na rynku, trzeba już czegoś więcej - trzeba dodać jakąś wartość do serwerów. Odkąd wróciliśmy do Suna, skupiamy się właśnie na tym.

Co chcecie osiągnąć tym razem?

W Galaxy skupiliśmy się na wydajności. Te urządzenia zapewniają najwyższą wydajność, choć opierają się na standardowej architekturze x86. Udało się to osiągnąć w dużej mierze dzięki dwurdzeniowym procesorom AMD Opteron, ale także dlatego, że zastosowaliśmy układy o większej mocy obliczeniowej [taktowane z większą częstotliwością niż standardowe wersje Opteron 200 - przy red.]. Mimo to układy Opteron nadal pozostają mniej więcej dwa razy bardziej wydajne w przeliczeniu na jednostkę mocy niż układy konkurencyjne.

Dzięki nowym układom Opteron nasze serwery osiągają w testach wydajność wyższą niż czteroprocesorowe serwery z układami Xeon MP Intela. Proszę zwrócić uwagę, że serwery czteroprocesorowe z układami to - w zależności od konkretnego dostawcy - urządzenia o wysokości 3 lub 4U.

Nasze serwery osiągają wyższą wydajność, choć mierzą zaledwie 1 lub 2U, a przy tym pobierają jedynie jedną trzecią energii, której potrzebują serwery konkurencyjne. Trzeba przyznać, że bezpośrednie porównanie Xeon MP z dwurdzeniowym Opteronem nie stawia Intela w dobrym świetle.

Jak rozumiem, procesory Opteron w serwerach Galaxy pobierają więcej mocy niż 95 W?

Tak, działają z mocą 120 W. Co więcej, serwery zostały zaprojektowane z zapasem pozwalającym stosować układy o jeszcze większej mocy, które pojawią się w przyszłości. Na nasze życzenie AMD podwyższyło moc procesorów - nam chodziło przede wszystkim o wydajność. Przeprowadziliśmy obliczenia, opierając się na kosztach elektryczności w Kalifornii i tak dalej, ale na koniec wszystko sprowadza się do tego, że jeśli jesteśmy w stanie wycisnąć 10% więcej mocy z tego samego serwera jedynie przez zwiększenie mocy procesora, to możemy kupić o 10% mniej serwerów. Jakkolwiek by nie liczyć, to się przekłada na mniejsze koszty operacyjne. Wyższa cena wydajnych procesorów wiąże się z tym właśnie, że tę samą pracę można wykonać przy mniejszej liczbie serwerów, oszczędności miejsca w szafach, mniejszej liczbie licencji itd.

Dlaczego w nowych serwerach znalazły się dyski SAS, a nie SATA?

SAS i SATA różnią się stosunkiem ceny do wydajności oraz pozycją na rynku. Te same kryteria mają znaczenie przy porównywaniu dysków 3,5" z dyskami 2,5". Dyski o średnicy 3,5" z interfejsem SATA mają dziś pojemność 500 GB, a więc znacznie większą niż dyski SAS czy SCSI o tych samych wymiarach. Poza tym teraz mamy do czynienia z zupełnie nową kategorią dysków SATA przystosowaną do wymagań rynku korporacyjnego. Te dyski pracują z prędkością 7200 obr./min, a ich wskaźnik MTBF [czas życia przyp. red.] sięga miliona godzin. Stosunek pojemności i wydajności do ceny jest bardzo korzystny.

Dyski SATA o średnicy 2,5" to na razie zupełnie co innego. Kontroler naszych serwerów obsługuje protokół SATA. Jeśli chodzi o dyski, one nadają się głównie do notebooków - działają z prędkością 5400 obr./min, a ich pojemność sięga jedynie 120 GB. Poza tym one nie były projektowane do zastosowań serwerowych. Te spostrzeżenia potwierdzają klienci, którzy interesują się dyskami SATA, ale jedynie o średnicy 3,5".

Dyski SAS o średnicy 2,5" działają z prędkością 10 tys. obr./min, a przy tym zapewniają lepsze osiągi niż działające z tą samą prędkością dyski konwencjonalne o średnicy 3,5". W przyszłym roku dostępne będą dyski 2,5" działające z prędkością 15 tys. obr./min - to będą najszybsze dyski na tej planecie. Dziś dostępne są jedynie pojemności 36 i 73 GB, ale w przyszłości i one będą rosnąć.

Dla nas najważniejszym powodem zastosowania dysków SAS o średnicy 2,5" był fakt, że ze względu na wymiary właśnie mogliśmy je umiejscowić w serwerach w taki sposób, by nie utrudniały odprowadzania ciepła z wnętrza obudowy. Cała lewa strona serwera pokryta jest blachą perforowaną, przez którą chłodne powietrze bez problemu wnika do wnętrza i chłodzi gorące procesory. Zastosowanie dwóch i więcej rdzeni zamiast jednego wcale nie oznacza, że będą one wydzielać mniej ciepła. Więcej rdzeni to większe zagęszczenie mocy, dlatego procesory wielordzeniowe będą w sumie zużywać więcej energii - nawet pomimo większej efektywności wyrażającej się stosunkiem mocy obliczeniowej na 1 W.

Czy technologia AMD nadaje się na tym etapie do konsolidacji wielu systemów przez ich wirtualizację?

To zależy, o jakim konkretnie oprogramowaniu mówimy. VMware opanowało sztukę wirtualizacji i jego oprogramowanie działa na układach AMD be zarzutu - w jego środowisku można uruchamiać Windows, Linuxa, Solaris; to działa bardzo elegancko. Oprogramowanie Xen rozwijane w ramach projektu open source jest jeszcze na wczesnym etapie rozwoju. Xen będzie wspierany przez rozwiązania sprzętowe AMD i Intela już w przyszłym roku kalendarzowym [chodzi o technologie Intel VT i AMD Pacifica - przyp. red.]. Dzięki tym rozwiązaniom Xen będzie mógł łatwiej osiągnąć funkcjonalność, którą dziś ma VMware.

Czy gdy na rynek trafią układy AMD z technologią Pacifica, moc serwerów będzie mogła wzrosnąć bardziej niż obecna nadwyżka w postaci wspomnianych przez Pana 10%?

To będzie bezpośrednio zależne od liczby interakcji między aplikacjami i jądrem systemu, a tego nie da się oszacować w uniwersalny sposób. Na pewno Pacifica ułatwi życie rozwiązaniom, takim jak Xen czy Microsoft Virtual Server i dzięki niej staną się one bardziej funkcjonalne, a być może - w niektórych przypadkach - także wydajniejsze. Sądzę, że to nie będzie mieć raczej związku ze zwiększaniem mocy obliczeniowej przez zwiększanie mocy procesorów. W przeszłości wiązała się z dużym narzutem na wydajność, a mimo to wiele osób korzystało z niej ze względu na oszczędności na sprzęcie. Ale powiedzmy za rok od dziś wszyscy będą oferować wirtualizację w standardzie.

Wirtualizacja to ważny temat. Rynek przechodzi od serwerów dwuprocesorowych do serwerów jednoprocesorowych z dwoma rdzeniami - AMD już to oferuje, a Intel zaoferuje to w przyszłym roku. Ale historycznie rzecz biorąc, na rynku zawsze najpopularniejsze były serwery dwuprocesorowe - ze względu na najlepszy stosunek możliwości do ceny. Serwery czteroprocesorowe stanowią dziś 10% rynku, ponieważ aby odnieść korzyści z ich wdrożenia, trzeba umieć skonsolidować na nich więcej aplikacji [a to właśnie umożliwia wirtualizacja - przyp. red.]. Wkrótce jednak serwery dwuprocesorowe przekształcą się w czteroprocesorowe i gros rynku będzie należało właśnie do nich.

Czy Sun nadal zamierza utrzymywać, że częstotliwość zegara nie ma znaczenia?

Samo taktowanie zegara jest kompletnie bez znaczenia. Liczy się to, ile zadań można wykonać. Przykładowo, Opteron ma trzy kolejki operacji stałoprzecinkowych, podczas gdy Xeon - dwie. Z tego wynika różnica w wydajności obliczeniowej. Poza tym mniejsze częstotliwości taktowania w przypadku AMD przekładają się na znacznie niższe zużycie energii - pobór mocy jest wprost proporcjonalny do częstotliwości. No i jeszcze długość kolejki - potok liczący 30 instrukcji w przypadku Xeona nie pomaga w obniżaniu poboru mocy. W Opteronach potoki są znacznie krótsze.

Wracając do częstotliwości, architektura Opteronów skaluje się liniowo, razem z kontrolerem pamięci, który działa z prędkością samego procesora. Tu nie ma szyny pamięci o określonej, niezależnej od procesora częstotliwości i wynikających z tego problemów. Robiliśmy testy z układami Xeon MP z 8 MB pamięci podręcznej - nawet jednak ona nie jest w stanie nadrobić spowolnienia spowodowanego przez to, że pamięć RAM tak bardzo nie nadąża za procesorem.

Opteron wypada dobrze także pod względem wydajności I/O. Dzięki temu możemy w naszych serwerach obsłużyć dowolną liczbę kart Fibre Channel, a w przyszłości także inne technologie, jak InfiniBand czy 10G Ethernet. To jest możliwe właśnie dzięki m.in. reaktywności pamięci i tego w systemach opartych na architekturze Intela osiągnąć się nie da. Nie mówię o tym, aby zdyskredytować Intela. W przyszłości zarówno Opteron, jak i AMD będą umożliwiały znacznie krótsze potoki przetwarzania danych. Myślę, że Intel popełnił błąd, skupiając się na usprawnianiu przetwarzania wątków, które miały wpłynąć na szybkość zegara.

Rozmawiał Tom Yager z amerykańskiej edycji tygodnika InfoWorld.


TOP 200