Mieszanka technologii i biznesu
- 22.12.2006
Wzajemny wpływ biznesu, marketingu i nowych technologii kształtuje obraz rynku IT. Użytkownicy modyfikują jednak przewidywania analityków i korporacyjnych planistów, akceptując lub odrzucając nowe oferty.
Wzajemny wpływ biznesu, marketingu i nowych technologii kształtuje obraz rynku IT. Użytkownicy modyfikują jednak przewidywania analityków i korporacyjnych planistów, akceptując lub odrzucając nowe oferty.
Gdyby oceniać premiery mikroprocesorów z tej perspektywy, to można by powiedzieć, że w mijającym roku nie pojawiło się nic istotnie nowego, choć "maszyny marketingowo-reklamowe" producentów robiły wszystko, aby przekonać użytkowników, że jest inaczej. Z punktu widzenia praktycznych zastosowań należy przyznać jednak, że rok ten przyniósł sporo istotnych rozwiązań, nawet jeśli większość z nich nie ma waloru całkiem nowej technologii. Przede wszystkim rozpoczęła się era masowych zastosowań procesorów wielordzeniowych, choć układy takie znane są od lat. Ich masowa popularyzacja będzie miała ogromny wpływ na rynek nie tylko sprzętu, ale i oprogramowania, które będzie musiało zostać stopniowo przystosowane do przetwarzania wielowątkowego i wykorzystania możliwości systemów wieloprocesorowych.
Liczenie CPU
Intel jako pierwszy ogłosił premierę nowych platform dla komputerów przenośnych Centrino Duo Mobile i Centrino Solo Mobile, których elementem były m.in. dwurdzeniowe procesory Yonah wykorzystujące nową architekturę Core, która została w tym roku zastosowana również do wytwarzania kolejnych modeli tego typu układów. Co kilkadziesiąt dni Intel prezentował nowe procesory, aby pod koniec roku wprowadzić pierwsze układy czterordzeniowe Xeon i Core 2 Extreme. Tej technologicznej ofensywie Intela towarzyszyły też posunięcia biznesowe - znaczące obniżki cen - w praktyce oznaczające rozpoczęcie wojny cenowej z AMD. Firma ta, z miesiąca na miesiąc poprawiając udziały w rynku i zdobywając zaufanie największych producentów serwerów, nie była w stanie odpowiedzieć Intelowi podobnie spektakularnymi premierami. Firma ta wprowadzała co prawda serie nowych modeli procesorów dwurdzeniowych dla serwerów, komputerów desktop i notebooków, ale dopiero pod koniec roku ogłosiła rozpoczęcie produkcji układów w technologii 65-nanometrowej, którą Intel wdrożył do masowej produkcji prawie rok temu. Migracja do tego nowocześniejszego procesu wytwarzania układów jest dla AMD kluczowa, jeśli firma nie chce stracić nadrobionego wcześniej dystansu do Intela. AMD zaprezentowała tylko prototypy czterordzeniowych procesorów Opteron 8000 (Barcelona), które mają się pojawić na rynku dopiero w drugim kwartale 2007 r. W odróżnieniu od oferowanych obecnie układów Xeon mają one mieć architekturę w pełni integrującą wszystkie jednostki CPU na jednym kawałku krzemu. Układy intelowskie to dwa połączone dwurdzeniowe układy Woodcrest.
Każde z tych rozwiązań ma swoje zalety. Dobrze zaprojektowana architektura zintegrowana z reguły zapewnia lepszą przepustowość wymiany danych między CPU, a także z zewnętrznymi elementami systemu, czyli w sumie wyższą wydajność. Natomiast zachowanie istniejącej architektury dwurdzeniowej umożliwiło szybsze wprowadzenie procesorów na rynek, a także zmniejszenie kosztów ich produkcji. Warto jednak zauważyć, że organizacja HyperTransport Consortium opublikowała w tym roku specyfikację nowej wersji interfejsu i szyny danych HyperTransport 3.0, która została opracowana przez AMD, a później opublikowana i udostępniona jako otwarty standard. Jest to jeden z największych, docenionych przez rynek atutów architektury AMD w zastosowaniach serwerowych.
Integracja wielu rdzeni CPU w jednym procesorze nie jest nowością. IBM i Sun znacznie wcześniej wprowadziły tego typu układy RISC - Power i UltraSparc T1 oraz opracowane przez IBM procesory Cell (zawierające odpowiednio 4, 8 i 9 jednostek CPU), a mniej znana firma Azul Systems zaprezentowała zaprojektowane przez siebie układy zawierające nawet 48 zintegrowanych jednostek obliczeniowych.
Radio w standardzie
Firma Extreme Networks wprowadziła do sprzedaży w Polsce przełączniki bezprzewodowe WLAN z rodziny SummitRWM.
Tymczasem rynek WiMAX rozwijał się w 2006 r. szybciej niż jeszcze niedawno można było oczekiwać, a to dzięki zarówno producentom sprzętu, jak i dostawcom usług. Duże zainteresowanie technologią WiMAX powoduje, że w najbliższych latach może to być jedna z najpopularniejszych metod udostępniania szerokopasmowych łączy radiowych. Obecną sytuację WiMAX można porównać do telefonii komórkowej przed 15 laty, gdy była ona technologią nową i wciąż niesprawdzoną w masowych zastosowaniach. Oprócz potentatów, takich jak Intel, Motorola, Nokia, Nortel, Samsung i innych dużych firm, rozwojem technologii WiMAX zajmuje się obecnie na świecie ok. 200 mniejszych producentów.
Stacjonarna wersja WiMAX (IEEE 802.16d opublikowana pod koniec 2005 r.) już znalazła praktyczne zastosowania - np. komercyjne usługi Netii oraz plany rozwoju sieci przez Exatel i Clearwire w Polsce - ale największe zainteresowanie, zwłaszcza operatorów, budzi mobilna wersja tego systemu IEEE 802.16e opublikowana w lutym 2006 r. Oferuje ona znacznie wyższą przepustowość w porównaniu z sieciami komórkowymi (nawet do 20 Mb/s). Formalne testy zgodności urządzeń 802.16e ze specyfikacją WiMAX rozpoczną się w styczniu 2007 r., a więc pierwsze certyfikowane produkty pojawią się na rynku w połowie przyszłego roku.
Ethernet będzie miał 100 Gb/s
Serwer Sun Fire T1000 z ośmiordzeniowym procesorem.
Przed twórcami Ethernetu 100 Gb/s stoją poważne wyzwania, takie jak ograniczenie poboru energii pobieranej przez układy scalone obsługujące interfejsy. Nie ulega wątpliwości, że sieci o przepustowości 100 Gb/s oparte będą na światłowodach. Przy tak dużej szybkości opracowanie wersji Ethernet 100 Gb/s wykorzystującej okablowanie miedziane będzie niezmiernie trudne, jeśli nie niemożliwe.
Wirtualizacja czeka na klientów
Gdyby popularność wirtualizacji oceniać na podstawie liczby nowych firm, pomysłów i aplikacji wprowadzanych ostatnio na rynek, można by uznać, że jest jedną z najważniejszych technologii. Użytkownicy wciąż jednak podchodzą z rezerwą do implementacji takich systemów i wciąż zaledwie kilka procent serwerów zainstalowanych w firmach i korporacjach wykorzystuje oprogramowanie do wirtualizacji zasobów. Jak w wypadku każdej nowej technologii największą, naturalną barierą hamującą zastosowania jest stosunkowo mała wiedza użytkowników i przyzwyczajenie do korzystania z klasycznych, dobrze znanych i sprawdzonych rozwiązań.
Wirtualizacja nie jest pomysłem nowym. Po raz pierwszy wprowadził ją IBM w komputerach mainframe w 1972 r. Obecnie zyskuje ona status technologii standardowo dostępnej dla każdego systemu, nie tylko serwerów w korporacyjnych centrach danych, ale również małych firm, a nawet indywidualnych użytkowników zwykłych komputerów PC. Najczęściej podkreślane zalety wirtualizacji to ograniczenie kosztów infrastruktury serwerowej dzięki zwiększeniu wykorzystania dostępnej mocy przetwarzania i konsolidacji aplikacji, względnie łatwe przenoszenia oprogramowania między różnymi komputerami, a nawet systemami operacyjnymi oraz możliwość skalowania systemu i bieżącej modyfikacji zasobów przydzielanych różnym aplikacjom.
Mówiąc jednak o zaletach wirtualizacji, nie należy zapominać o jej wadach - oprogramowanie wirtualizacyjne również zużywa zasoby - przede wszystkim dotyczy to niezbędnej mocy przetwarzania procesorów, a oprócz tego wymaga dodatkowej inwestycji w zakup licencji. Ta ostatnia uwaga odnosi się obecnie tylko do wersji korporacyjnych, indywidualni użytkownicy mogą korzystać z darmowych pakietów wprowadzonych ostatnio praktycznie przez wszystkich liczących się producentów, jak VMware, Microsoft, XenSource, Altiris i SWSoft.
Warto zauważyć, że na masową popularyzację oprogramowania wirtualizacyjnego istotny wpływ może mieć wprowadzenie sprzętowych mechanizmów wspomagających wirtualizację do najnowszych platform i procesorów Intela i AMD.