Bliższe i dalsze plany osobiste

Dość łatwo wyliczyć modyfikacje konstrukcji komputerów osobistych, jakie zostaną wprowadzone w przyszłym roku. Wielowątkowe Pentium, 64-bitowe układy dla PC, szyfrowanie i identyfikowanie użytkownika zaszyte w rdzeniu procesora - to zmiany jakościowe, o których na pewno będzie jeszcze głośno.

Dość łatwo wyliczyć modyfikacje konstrukcji komputerów osobistych, jakie zostaną wprowadzone w przyszłym roku. Wielowątkowe Pentium, 64-bitowe układy dla , szyfrowanie i identyfikowanie użytkownika zaszyte w rdzeniu procesora - to zmiany jakościowe, o których na pewno będzie jeszcze głośno.

ViewSonic Airpanel 110 - 10" monitor typu Smart Display wyposażony w bezprzewodowy interfejs IEEE 802.11b

ViewSonic Airpanel 110 - 10" monitor typu Smart Display wyposażony w bezprzewodowy interfejs IEEE 802.11b

Prognozowanie w dłuższej, kilkuletniej perspektywie to zadanie z gatunku gier losowych i rachunku prawdopodobieństwa. Na podstawie znajomości obecnych trendów można starać się odgadnąć kierunek rozwoju platform PC, ale na pytanie, kiedy przyniesie on efekty w postaci produktów, trudno uzyskać przekonującą odpowiedź. Przykładem może być technologia OLED - płaskie, wyświetlacze, którym wróży się karierę większą niż panelom LCD. Produkcję małych, kilkucalowych OLED wprawdzie już uruchomiono, prezentowane są prototypy monitorów i przenośnych odbiorników TV, ale o terminie wprowadzenia ich na rynek przedstawiciele firm rozwijających technologię OLED wymijająco odpowiadają: za trzy lata, a może pięć.

Słaby rynek wzmacnia rozwój technologii

Gdy przemysł dotknęła największa recesja w liczącej przeszło ćwierć wieku historii, przedstawiciele Intela poinformowali, że firma zamierza zwiększyć nakłady na inwestycje i tempo wprowadzania na rynek nowych technologii. Można by pomyśleć, że to tylko zabieg marketingowy, ale Intel w ciągu 2002 r. wystarczająco uwiarygodnił swoje deklaracje. Polityka "ucieczki do przodu" ma na celu z jednej strony osłabienie wpływu kurczącego się popytu na wyniki finansowe Intela (przez wzrost udziału w rynku), z drugiej - zachęcenie klientów do wymiany starych PC na nowe, szybsze, wydajniejsze. Chodzi przede wszystkim o korporacje, które - jak wynika z badań rynku - opóźniają decyzje o wymianie komputerów. W roku 2002 tzw. popyt restytucyjny był znacznie poniżej oczekiwań. W tym czasie Intel częściej niż zwykle wprowadzał nowe modele procesorów, by pod koniec 2002 r. przekroczyć barierę częstotliwości 3 GHz.

Jedno, czego można być pewnym, to że tempo zwiększania częstotliwości procesorów nie zostanie zahamowane w najbliższych latach. Niektórzy specjaliści z branży półprzewodników twierdzą, że trend ten utrzyma się przynajmniej do końca dekady. Tyle, że większość użytkowników już dawno przestała się ekscytować prędkością taktowania zegara. Bardziej ciekawsze i doniosłe są jakościowe modyfikacje w architekturze układów mikroprocesorowych.

Z pewnością do takich zmian należy Hyper Threading - technologia, która umożliwia pracę wielowątkową. Procesor wykonuje jednocześnie dwa procesy. Przez długi czas rozwiązania tego typu stosowano wyłącznie w serwerach. Od listopada 2002 r. Intel wprowadził Hyper Threading do środowiska komputerów osobistych. Technologia ta nie umożliwia wprawdzie w pełni równoległego wykonywania wątków (układ ma te same fizyczne zasoby, jak pamięć podręczna i rejestry), jak w przypadku dwóch i większej liczby procesorów fizycznych, ale stanowi istotny krok w kierunku budowy mikroprocesorów wieloukładowych, których architektura jest przygotowywana w laboratoriach.

Opinie o efektywności Hyper Threading są podzielone. Wcześniej, na początku 2002 r., gdy Intel wprowadził tę technologię w procesorach Xeon, zyskała ona dobre oceny niektórych niezależnych laboratoriów testujących sprzęt - wzrost wydajności był szacowany nawet na 30%. W komputerach z Pentium 4 3,06 GHz wyniki pierwszych testów rozczarowały.

Obecnie wszystkie nowe procesory Pentium 4 o częstotliwościach powyżej 3 GHz będą wyposażane w Hyper Threading. Nic nie mówi się natomiast o implementacji Hyper Threading w tańszych układach niższej klasy, np. Celeron. Wiadomo że na przeszkodzie nie stoją problemy techniczne, ponieważ procesory Celeron i starsze Pentium 4 mają fizyczną strukturę umożliwiającą włączenie funkcji pracy wielowątkowej. Najwyraźniej Intel chce, przynajmniej na początku, wykorzystać tę technologię do wspomagania sprzedaży najwydajniejszych i najdroższych modeli.

AMD pozwoliła się wyprzedzić Intelowi pod względem zwiększania fizycznej częstotliwości procesorów, ale firma ta jest pochłonięta pracą nad 64-bitowym procesorem dla PC. Athlon 64, wcześniej nazywany Hammer, powinien zadebiutować w marcu 2003 r. Jego architektura została tak zaprojektowana, by umożliwić uruchamianie aplikacji 32-bitowych.

Wyścig nie ustaje

Utrzymanie obecnego tempa wzrostu wydajności procesorów oznacza, że za pięć lat w notebookach będą instalowane 12 GHz procesory. To niezbyt odległa perspektywa.

Standardowym wyposażeniem staną się interfejsy bezprzewodowe, które w połączeniu ze zbudowaną przez operatorów telekomunikacyjnych infrastrukturą szerokopasmową umożliwią utrzymywanie stałych połączeń z Internetem lub sieciami firmowymi niezależnie od tego, gdzie użytkownik się znajduje.

Jest prawdopodobne, że za kilka lat, zamiast lub obok dysków, komputery przenośne będą wyposażane w pamięci NV-RAM (Non-Volatile RAM), nie wymagające zasilania do podtrzymywania zapisu, podobnie jak obecnie stosowane układy Flash, a jednocześnie umożliwiające znaczne zwiększenie szybkości transmisji danych. Zdaniem Matthew Wagnera z Hewlett-Packarda nastąpi to najwcześniej w 2005 r. Niedawno IBM zaprezentował prototypowe pamięci DDR2 o przepustowości 6,4 Gb/s, które mają się pojawić na rynku za 2, 3 lata. Toshiba i NEC natomiast poinformowały o wprowadzeniu do produkcji w 2005 r. nowego typu pamięci MRAM (Magnetic RAM), o znacznie mniejszym poborze mocy niż obecnie stosowane układy SDRAM i utrzymujące zapis danych po odłączeniu zasilania.

Standardowy czas autonomicznej pracy komputera przenośnego powinien wzrosnąć z 2-3 godz. do co najmniej 8 godz. Na razie rozwój technologii związanych z konstrukcją wydajniejszych akumulatorów nie nadąża za wzrostem zapotrzebowania na moc w komputerach wyposażonych w duże wyświetlacze, szybkie procesory, interfejsy bezprzewodowe i sieciowe, napędy optyczne itd. A wydłużenie czasu pracy bez zasilania zewnętrznego jest jednym z najbardziej pożądanych przez użytkowników ulepszeń, które wciąż nie mogą doczekać się praktycznej realizacji. Jest nadzieja, że za kilka lat ten cel uda się osiągnąć. Z jednej strony pojawiają się nowe obiecujące technologie, które umożliwiają zasadnicze zwiększenie pojemności przenośnych źródeł zasilania, z drugiej, producenci sprzętu również zaczynają przywiązywać większą wagę do tego problemu.