Tysiąc razy szybciej

We wczesnych latach szkolnych za podstawowe kryterium oceny klasy samochodu i częściej wówczas spotykanego motocykla przyjmowaliśmy to, ile miał na liczniku, czyli do jakiej szybkości rozciągała się skala jego szybkościomierza.

We wczesnych latach szkolnych za podstawowe kryterium oceny klasy samochodu i częściej wówczas spotykanego motocykla przyjmowaliśmy to, ile miał na liczniku, czyli do jakiej szybkości rozciągała się skala jego szybkościomierza.

Ciężki i mocny, rodzinny radziecki IŻ49 (do dziś sprawny i imponujący jakością oryginalnych chromów) budził wśród kolegów respekt swym licznikowym 160, chociaż producent określał jego możliwości na gdzieś między 95 a 100.

Podobnie fascynacja prędkością działania zegarów taktujących komputerów była zawsze dowodem powierzchownej znajomości istoty ich działania, co było również powodem licznych nieporozumień. W tzw. dużych komputerach już w latach 70. stosowano rozwiązania, które dawały im znaczną przewagę nad ich młodszymi braćmi, nawet jeżeli te ostatnie mogły wykazać się większymi prędkościami zegarów. Poza tym komputer 100-megahercowy wcale nie jest dwa razy szybszy od tego, który tych megaherców ma tylko 50. Dzieje się tak, gdyż ten pierwszy sporo prędkości "zjada" dla siebie.

W pewnym okresie szybkość zegarów okazała się nawet dobrym chwytem reklamowym: w wielu obudowach komputerów osobistych pojawiły się okienka wyświetlające liczbę osiąganych megaherców. Wersje oszczędnościowe były tak dobre, że nie przestawały tego wyświetlać nawet po odłączeniu od reszty komputera.

W felietonie Zero MHz pisałem kiedyś o próbach stworzenia procesora nie wymagającego zegara taktującego, co - jak się okazuje - w pewnym stopniu już zrealizowano w Pentium 4. Pytania o to, kiedy zegar taki w ogóle osiągnie kres swych możliwości, są coraz częstsze.

Kolejnym do tego powodem są sukcesy na drodze do zmiany połączeń aluminiowych, dotąd stosowanych w , na miedziane. Miedź przewodzi prąd lepiej niż aluminium, co jest znane dość powszechnie. Co więcej - coraz węższe i krótsze ścieżki przewodzące w mikroukładach skracają drogę prądu, ale miewają kłopoty z jego przewodzeniem.

Miedzi nie stosowano dotąd w takich układach przede wszystkim ze względu na "animozje" z podstawowym ich tworzywem - krzemem. Wystarczyły śladowe jej domieszki, aby zniszczyć całe układy, ponieważ drogą dyfuzji miedź "pływa" sobie tu i tam w strukturach krzemowych, tworząc przypadkowe połączenia. W miedzi do tego stopnia upatrywano wroga numer jeden, że w halach fabryk produkujących mikroukłady umieszczano napisy zakazujące stosowania i posiadania czegokolwiek zwierającego ten metal. Poza tym aluminium daje się łatwiej obrabiać, chociaż - przewodząc prąd - ma ono tendencje do przemieszczania swych atomów i zrywania połączeń.

Teraz wydaje się, że osiągnięto przełom, co np. firmie IBM zajęło blisko 18 lat prób. Miedzi nie daje się napylać na powierzchnię, tak jak aluminium: w układzie krzemowym trzeba najpierw wycinać rowki, odpowiadające przyszłym połączeniom, i sięgać po tradycyjne nakładanie elektrolityczne. Po zeszlifowaniu z powierzchni, miedź tworzy te połączenia, pozostając jedynie w rowkach.

Do zmiany na nową technikę są podobno gotowi wszyscy wielcy wytwórcy mikroukładów, a wspomniany IBM stosuje ją już od dłuższego czasu.

Na co w związku z tym możemy liczyć? Przede wszystkim na dalsze zwiększenie szybkości działania. Pod koniec tego roku spodziewana jest "miedziana" wersja Pentium 4 z zegarem 2,2 GHz, który w przyszłym roku ma osiągnąć już 3,5 GHz.

Niezbyt wobec tego odległa wydaje się granica 4,7 GHz, czyli tysiąc razy więcej, niż w pierwszym komputerze osobistym. Ku radości dzieci przyniesie to jeszcze wymyślniejsze gry, ale nie skróci nawet o sekundę czasu pisania felietonów. Nawet tych o najszybszych procesorach.


TOP 200