Mieszanka technologii i biznesu

Wzajemny wpływ biznesu, marketingu i nowych technologii kształtuje obraz rynku IT. Użytkownicy modyfikują jednak przewidywania analityków i korporacyjnych planistów, akceptując lub odrzucając nowe oferty.

Wzajemny wpływ biznesu, marketingu i nowych technologii kształtuje obraz rynku IT. Użytkownicy modyfikują jednak przewidywania analityków i korporacyjnych planistów, akceptując lub odrzucając nowe oferty.

Gdyby oceniać premiery mikroprocesorów z tej perspektywy, to można by powiedzieć, że w mijającym roku nie pojawiło się nic istotnie nowego, choć "maszyny marketingowo-reklamowe" producentów robiły wszystko, aby przekonać użytkowników, że jest inaczej. Z punktu widzenia praktycznych zastosowań należy przyznać jednak, że rok ten przyniósł sporo istotnych rozwiązań, nawet jeśli większość z nich nie ma waloru całkiem nowej technologii. Przede wszystkim rozpoczęła się era masowych zastosowań procesorów wielordzeniowych, choć układy takie znane są od lat. Ich masowa popularyzacja będzie miała ogromny wpływ na rynek nie tylko sprzętu, ale i oprogramowania, które będzie musiało zostać stopniowo przystosowane do przetwarzania wielowątkowego i wykorzystania możliwości systemów wieloprocesorowych.

Liczenie CPU

Intel jako pierwszy ogłosił premierę nowych platform dla komputerów przenośnych Centrino Duo Mobile i Centrino Solo Mobile, których elementem były m.in. dwurdzeniowe procesory Yonah wykorzystujące nową architekturę Core, która została w tym roku zastosowana również do wytwarzania kolejnych modeli tego typu układów. Co kilkadziesiąt dni Intel prezentował nowe procesory, aby pod koniec roku wprowadzić pierwsze układy czterordzeniowe Xeon i Core 2 Extreme. Tej technologicznej ofensywie Intela towarzyszyły też posunięcia biznesowe - znaczące obniżki cen - w praktyce oznaczające rozpoczęcie wojny cenowej z AMD. Firma ta, z miesiąca na miesiąc poprawiając udziały w rynku i zdobywając zaufanie największych producentów serwerów, nie była w stanie odpowiedzieć Intelowi podobnie spektakularnymi premierami. Firma ta wprowadzała co prawda serie nowych modeli procesorów dwurdzeniowych dla serwerów, komputerów desktop i notebooków, ale dopiero pod koniec roku ogłosiła rozpoczęcie produkcji układów w technologii 65-nanometrowej, którą Intel wdrożył do masowej produkcji prawie rok temu. Migracja do tego nowocześniejszego procesu wytwarzania układów jest dla AMD kluczowa, jeśli firma nie chce stracić nadrobionego wcześniej dystansu do Intela. AMD zaprezentowała tylko prototypy czterordzeniowych procesorów Opteron 8000 (Barcelona), które mają się pojawić na rynku dopiero w drugim kwartale 2007 r. W odróżnieniu od oferowanych obecnie układów Xeon mają one mieć architekturę w pełni integrującą wszystkie jednostki CPU na jednym kawałku krzemu. Układy intelowskie to dwa połączone dwurdzeniowe układy Woodcrest.

Każde z tych rozwiązań ma swoje zalety. Dobrze zaprojektowana architektura zintegrowana z reguły zapewnia lepszą przepustowość wymiany danych między CPU, a także z zewnętrznymi elementami systemu, czyli w sumie wyższą wydajność. Natomiast zachowanie istniejącej architektury dwurdzeniowej umożliwiło szybsze wprowadzenie procesorów na rynek, a także zmniejszenie kosztów ich produkcji. Warto jednak zauważyć, że organizacja HyperTransport Consortium opublikowała w tym roku specyfikację nowej wersji interfejsu i szyny danych HyperTransport 3.0, która została opracowana przez AMD, a później opublikowana i udostępniona jako otwarty standard. Jest to jeden z największych, docenionych przez rynek atutów architektury AMD w zastosowaniach serwerowych.

Integracja wielu rdzeni CPU w jednym procesorze nie jest nowością. IBM i Sun znacznie wcześniej wprowadziły tego typu układy RISC - Power i UltraSparc T1 oraz opracowane przez IBM procesory Cell (zawierające odpowiednio 4, 8 i 9 jednostek CPU), a mniej znana firma Azul Systems zaprezentowała zaprojektowane przez siebie układy zawierające nawet 48 zintegrowanych jednostek obliczeniowych.

Radio w standardzie

Mieszanka technologii i biznesu

Firma Extreme Networks wprowadziła do sprzedaży w Polsce przełączniki bezprzewodowe WLAN z rodziny SummitRWM.

Sieci bezprzewodowe Wi-Fi systematycznie dążą do miana powszechnego standardu, przynajmniej w komputerach przenośnych, w których interfejs bezprzewodowy Wi-Fi będzie wkrótce zapewne standardowym wyposażeniem. Rok 2006 przyniósł jednak pewien zgrzyt w rozwoju tej technologii - zapowiadany od kilku już lat nowy standard 802.11n nie doczekał się ratyfikacji przez IEEE, a co więcej jej planowany termin został przesunięty na 2008 r. 802.11n ma zwiększyć przepustowość sieci bezprzewodowej do poziomu 100-600 Mb/s, a więc udostępnić większą wydajność niż kablowy Fast Ethernet, a być może porównywalną z Gigabit Ethernet. Brak standardu jest problemem dla producentów sprzętu, którzy zaczęli już wprowadzać interfejsy i stacje dostępowe Wi-Fi typu 802.11n (określane jako pre-standard lub zgodne ze wstępnymi założeniami standardu) oferujące przepustowość np. 270 Mb/s. Jeszcze większe zamieszanie powstanie w przyszłym roku, bo przedstawiciele Wi-Fi Alliance poinformowali, że stowarzyszenie to zacznie certyfikować produkty IEEE 802.11n w pierwszej połowie 2007 r., przyznając im certyfikaty typu "zgodny z pre-standard 802.11n".

Tymczasem rynek WiMAX rozwijał się w 2006 r. szybciej niż jeszcze niedawno można było oczekiwać, a to dzięki zarówno producentom sprzętu, jak i dostawcom usług. Duże zainteresowanie technologią WiMAX powoduje, że w najbliższych latach może to być jedna z najpopularniejszych metod udostępniania szerokopasmowych łączy radiowych. Obecną sytuację WiMAX można porównać do telefonii komórkowej przed 15 laty, gdy była ona technologią nową i wciąż niesprawdzoną w masowych zastosowaniach. Oprócz potentatów, takich jak Intel, Motorola, Nokia, Nortel, Samsung i innych dużych firm, rozwojem technologii WiMAX zajmuje się obecnie na świecie ok. 200 mniejszych producentów.

Stacjonarna wersja WiMAX (IEEE 802.16d opublikowana pod koniec 2005 r.) już znalazła praktyczne zastosowania - np. komercyjne usługi Netii oraz plany rozwoju sieci przez Exatel i Clearwire w Polsce - ale największe zainteresowanie, zwłaszcza operatorów, budzi mobilna wersja tego systemu IEEE 802.16e opublikowana w lutym 2006 r. Oferuje ona znacznie wyższą przepustowość w porównaniu z sieciami komórkowymi (nawet do 20 Mb/s). Formalne testy zgodności urządzeń 802.16e ze specyfikacją WiMAX rozpoczną się w styczniu 2007 r., a więc pierwsze certyfikowane produkty pojawią się na rynku w połowie przyszłego roku.

Ethernet będzie miał 100 Gb/s

Mieszanka technologii i biznesu

Serwer Sun Fire T1000 z ośmiordzeniowym procesorem.

Przepustowość sieci bezprzewodowej zaczyna być konkurencyjna dla Fast Ethernet lub nawet Gigabit Ethernet, ale kablowe - przede wszystkim światłowodowe - sieci Ethernet wciąż nie muszą się obawiać przyszłości. W tym roku komitet Higher Speed Study Group organizacji IEEE podjął decyzję, iż Ethernet kolejnej generacji będzie pracować z szybkością 100 Gb/s. Biorąc pod uwagę historię powstawania kolejnych standardów, można przypuszczać, że pierwsze rozwiązania Ethernet 100 Gb/s pojawią się na przełomie lat 2009-2010.

Przed twórcami Ethernetu 100 Gb/s stoją poważne wyzwania, takie jak ograniczenie poboru energii pobieranej przez układy scalone obsługujące interfejsy. Nie ulega wątpliwości, że sieci o przepustowości 100 Gb/s oparte będą na światłowodach. Przy tak dużej szybkości opracowanie wersji Ethernet 100 Gb/s wykorzystującej okablowanie miedziane będzie niezmiernie trudne, jeśli nie niemożliwe.

Wirtualizacja czeka na klientów

Gdyby popularność wirtualizacji oceniać na podstawie liczby nowych firm, pomysłów i aplikacji wprowadzanych ostatnio na rynek, można by uznać, że jest jedną z najważniejszych technologii. Użytkownicy wciąż jednak podchodzą z rezerwą do implementacji takich systemów i wciąż zaledwie kilka procent serwerów zainstalowanych w firmach i korporacjach wykorzystuje oprogramowanie do wirtualizacji zasobów. Jak w wypadku każdej nowej technologii największą, naturalną barierą hamującą zastosowania jest stosunkowo mała wiedza użytkowników i przyzwyczajenie do korzystania z klasycznych, dobrze znanych i sprawdzonych rozwiązań.

Wirtualizacja nie jest pomysłem nowym. Po raz pierwszy wprowadził ją IBM w komputerach mainframe w 1972 r. Obecnie zyskuje ona status technologii standardowo dostępnej dla każdego systemu, nie tylko serwerów w korporacyjnych centrach danych, ale również małych firm, a nawet indywidualnych użytkowników zwykłych komputerów PC. Najczęściej podkreślane zalety wirtualizacji to ograniczenie kosztów infrastruktury serwerowej dzięki zwiększeniu wykorzystania dostępnej mocy przetwarzania i konsolidacji aplikacji, względnie łatwe przenoszenia oprogramowania między różnymi komputerami, a nawet systemami operacyjnymi oraz możliwość skalowania systemu i bieżącej modyfikacji zasobów przydzielanych różnym aplikacjom.

Mówiąc jednak o zaletach wirtualizacji, nie należy zapominać o jej wadach - oprogramowanie wirtualizacyjne również zużywa zasoby - przede wszystkim dotyczy to niezbędnej mocy przetwarzania procesorów, a oprócz tego wymaga dodatkowej inwestycji w zakup licencji. Ta ostatnia uwaga odnosi się obecnie tylko do wersji korporacyjnych, indywidualni użytkownicy mogą korzystać z darmowych pakietów wprowadzonych ostatnio praktycznie przez wszystkich liczących się producentów, jak VMware, Microsoft, XenSource, Altiris i SWSoft.

Warto zauważyć, że na masową popularyzację oprogramowania wirtualizacyjnego istotny wpływ może mieć wprowadzenie sprzętowych mechanizmów wspomagających wirtualizację do najnowszych platform i procesorów Intela i AMD.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200