Bliższe i dalsze plany osobiste
- 30.12.2002
Dość łatwo wyliczyć modyfikacje konstrukcji komputerów osobistych, jakie zostaną wprowadzone w przyszłym roku. Wielowątkowe Pentium, 64-bitowe układy dla PC, szyfrowanie i identyfikowanie użytkownika zaszyte w rdzeniu procesora - to zmiany jakościowe, o których na pewno będzie jeszcze głośno.
Dość łatwo wyliczyć modyfikacje konstrukcji komputerów osobistych, jakie zostaną wprowadzone w przyszłym roku. Wielowątkowe Pentium, 64-bitowe układy dla PC, szyfrowanie i identyfikowanie użytkownika zaszyte w rdzeniu procesora - to zmiany jakościowe, o których na pewno będzie jeszcze głośno.
Słaby rynek wzmacnia rozwój technologii
Gdy przemysł PC dotknęła największa recesja w liczącej przeszło ćwierć wieku historii, przedstawiciele Intela poinformowali, że firma zamierza zwiększyć nakłady na inwestycje i tempo wprowadzania na rynek nowych technologii. Można by pomyśleć, że to tylko zabieg marketingowy, ale Intel w ciągu 2002 r. wystarczająco uwiarygodnił swoje deklaracje. Polityka "ucieczki do przodu" ma na celu z jednej strony osłabienie wpływu kurczącego się popytu na wyniki finansowe Intela (przez wzrost udziału w rynku), z drugiej - zachęcenie klientów do wymiany starych PC na nowe, szybsze, wydajniejsze. Chodzi przede wszystkim o korporacje, które - jak wynika z badań rynku - opóźniają decyzje o wymianie komputerów. W roku 2002 tzw. popyt restytucyjny był znacznie poniżej oczekiwań. W tym czasie Intel częściej niż zwykle wprowadzał nowe modele procesorów, by pod koniec 2002 r. przekroczyć barierę częstotliwości 3 GHz.
Jedno, czego można być pewnym, to że tempo zwiększania częstotliwości procesorów nie zostanie zahamowane w najbliższych latach. Niektórzy specjaliści z branży półprzewodników twierdzą, że trend ten utrzyma się przynajmniej do końca dekady. Tyle, że większość użytkowników już dawno przestała się ekscytować prędkością taktowania zegara. Bardziej ciekawsze i doniosłe są jakościowe modyfikacje w architekturze układów mikroprocesorowych.
Z pewnością do takich zmian należy Hyper Threading - technologia, która umożliwia pracę wielowątkową. Procesor wykonuje jednocześnie dwa procesy. Przez długi czas rozwiązania tego typu stosowano wyłącznie w serwerach. Od listopada 2002 r. Intel wprowadził Hyper Threading do środowiska komputerów osobistych. Technologia ta nie umożliwia wprawdzie w pełni równoległego wykonywania wątków (układ ma te same fizyczne zasoby, jak pamięć podręczna i rejestry), jak w przypadku dwóch i większej liczby procesorów fizycznych, ale stanowi istotny krok w kierunku budowy mikroprocesorów wieloukładowych, których architektura jest przygotowywana w laboratoriach.
Opinie o efektywności Hyper Threading są podzielone. Wcześniej, na początku 2002 r., gdy Intel wprowadził tę technologię w procesorach Xeon, zyskała ona dobre oceny niektórych niezależnych laboratoriów testujących sprzęt - wzrost wydajności był szacowany nawet na 30%. W komputerach z Pentium 4 3,06 GHz wyniki pierwszych testów rozczarowały.
Obecnie wszystkie nowe procesory Pentium 4 o częstotliwościach powyżej 3 GHz będą wyposażane w Hyper Threading. Nic nie mówi się natomiast o implementacji Hyper Threading w tańszych układach niższej klasy, np. Celeron. Wiadomo że na przeszkodzie nie stoją problemy techniczne, ponieważ procesory Celeron i starsze Pentium 4 mają fizyczną strukturę umożliwiającą włączenie funkcji pracy wielowątkowej. Najwyraźniej Intel chce, przynajmniej na początku, wykorzystać tę technologię do wspomagania sprzedaży najwydajniejszych i najdroższych modeli.
AMD pozwoliła się wyprzedzić Intelowi pod względem zwiększania fizycznej częstotliwości procesorów, ale firma ta jest pochłonięta pracą nad 64-bitowym procesorem dla PC. Athlon 64, wcześniej nazywany Hammer, powinien zadebiutować w marcu 2003 r. Jego architektura została tak zaprojektowana, by umożliwić uruchamianie aplikacji 32-bitowych.
Utrzymanie obecnego tempa wzrostu wydajności procesorów oznacza, że za pięć lat w notebookach będą instalowane 12 GHz procesory. To niezbyt odległa perspektywa.
Standardowym wyposażeniem staną się interfejsy bezprzewodowe, które w połączeniu ze zbudowaną przez operatorów telekomunikacyjnych infrastrukturą szerokopasmową umożliwią utrzymywanie stałych połączeń z Internetem lub sieciami firmowymi niezależnie od tego, gdzie użytkownik się znajduje.
Jest prawdopodobne, że za kilka lat, zamiast lub obok dysków, komputery przenośne będą wyposażane w pamięci NV-RAM (Non-Volatile RAM), nie wymagające zasilania do podtrzymywania zapisu, podobnie jak obecnie stosowane układy Flash, a jednocześnie umożliwiające znaczne zwiększenie szybkości transmisji danych. Zdaniem Matthew Wagnera z Hewlett-Packarda nastąpi to najwcześniej w 2005 r. Niedawno IBM zaprezentował prototypowe pamięci DDR2 o przepustowości 6,4 Gb/s, które mają się pojawić na rynku za 2, 3 lata. Toshiba i NEC natomiast poinformowały o wprowadzeniu do produkcji w 2005 r. nowego typu pamięci MRAM (Magnetic RAM), o znacznie mniejszym poborze mocy niż obecnie stosowane układy SDRAM i utrzymujące zapis danych po odłączeniu zasilania.
Standardowy czas autonomicznej pracy komputera przenośnego powinien wzrosnąć z 2-3 godz. do co najmniej 8 godz. Na razie rozwój technologii związanych z konstrukcją wydajniejszych akumulatorów nie nadąża za wzrostem zapotrzebowania na moc w komputerach wyposażonych w duże wyświetlacze, szybkie procesory, interfejsy bezprzewodowe i sieciowe, napędy optyczne itd. A wydłużenie czasu pracy bez zasilania zewnętrznego jest jednym z najbardziej pożądanych przez użytkowników ulepszeń, które wciąż nie mogą doczekać się praktycznej realizacji. Jest nadzieja, że za kilka lat ten cel uda się osiągnąć. Z jednej strony pojawiają się nowe obiecujące technologie, które umożliwiają zasadnicze zwiększenie pojemności przenośnych źródeł zasilania, z drugiej, producenci sprzętu również zaczynają przywiązywać większą wagę do tego problemu.