Spirala chaosu

Sprzęt

Przy ogromnym zróżnicowaniu stosowanego obecnie sprzętu informatycznego niemożliwe jest znalezienie uniwersalnych kryteriów, które pozwalałyby dokonać ogólnej, zbiorczej oceny postępu w jego wytwarzaniu i funkcjonowaniu. Zbyt duże są różnice wynikające z istoty działania poszczególnych grup urządzeń i osiągniętego przez nie stopnia rozwoju. Jeszcze trudniej wybrać fakty i właściwości, będące w zakresie danej grupy głównymi osiągnięciami.

Z poziomu zasad działania komputerów trudno właściwie dostrzec istotny postęp: współczesne komputery niewiele się pod tym względem różnią od przodka z roku 1945 o nazwie ENIAC. Tak samo, krok po kroku wykonują zadane polecenia, a kolejne generacje różnią się głównie szybkością działania i wielkością - malejące rozmiary coraz bardziej złożonego wewnętrznie sprzętu i rosnąca szybkość jego działania stanowią tu główne osiągnięcia techniki.

Wtórnym efektem miniaturyzacji jest mniejsza ilość energii zużywanej przez komputery, co dość powszechnie ignorują użytkownicy, ale daje znaczący efekt ekologiczny w skali świata. Problem usuwania ciepła powstającego w wyniku działania układów elektronicznych co pewien czas staje się przeszkodą w ich dalszej miniaturyzacji. Efektem tego były słynne "komputery na wodę" z lat 80., w których przez kanaliki w układach scalonych, w celu odprowadzania ciepła, tłoczono specjalnie uzdatnianą i chłodzoną wodę. Zagadnienie odprowadzania nadmiaru ciepła ma również taki skutek, że obecnie o "życiu i śmierci" mikroprocesora w komputerze osobistym decyduje sprawność elektromechanicznego wentylatora.

Jeszcze innym - znaczącym i wymiernym - efektem miniaturyzacji jest malejący koszt wytwarzania. Trudno jednak w tym przypadku oddzielić wpływ miniaturyzacji od znaczenia skali produkcji i roli niskiego poziomu płac w krajach, do których - z tej właśnie przyczyny - przenosi się proces wytwarzania. Ten ostatni aspekt dotyczy obecnie szerokiego zakresu produktów informatycznych.

Całość miniaturyzacji, niezupełnie słusznie, odnosi się przede wszystkim do układów scalonych, nie zauważając, że proces ten ma znacznie szerszy zakres. Jednak to właśnie układy scalone są przedmiotem prawa sformułowanego przez jednego z ich twórców i od jego nazwiska zwanego prawem Moore'a. Początkowo stanowiło ono, że co 2 lata podwaja się liczba tranzystorów zawartych w jednym układzie scalonym. Zgodnie z dzisiejszą jego wersją, zmiana taka dokonuje się co 18 miesięcy.

Historia komputerowych układów scalonych składa się z ciągu dokonań, z których niemal każde jest szczególnym osiągnięciem i zasługuje na wyróżnienie. Dwa fakty są jednak szczególnie interesujące:

- rewolucja procesorów typu RISC, która - w stosunku do zapowiedzi i nadziei - zakończyła się co najwyżej połowicznym sukcesem (do czego w istotny sposób przyczynił się wzrost prędkości działania klasycznych procesorów CISC)

- zastosowanie technologii CMOS (a następnie SOI) w układach elektronicznych komputerów mainframe (w miejsce bipolarnej ECL), co pozwoliło im zrównać się z pozostałymi komputerami pod względem kosztu użytkowania.

Najważniejszym efektem miniaturyzacji układów elektronicznych stosowanych w komputerach jest bez wątpienia wzrost niezawodności działania, zarówno pojedynczych układów, jak i złożonych z nich systemów. Utleniające się styki i korodujące połączenia lutowane przez lata były zmorą obsługi technicznej komputerów i najczęstszą przyczyną ich awarii. 2)

Ze zrozumiałych względów było to szczególnie dokuczliwe w zastosowaniach militarnych, gdzie dochodziły takie czynniki wystawiające niezawodność na próbę, jak duże przyspieszenia, silne drgania o zmiennych częstotliwościach, znaczne zmiany temperatury otoczenia itp.

Miniaturyzacja była długim, stopniowym procesem. Przebycie drogi od tranzystora do mikroprocesora zajęło ponad 25 lat. Pod koniec lat 60. przeciętny procesor (wówczas zwany jednostką centralną) składał się z kilkuset płyt z elektroniką, toteż znaczącym osiągnięciem na tej drodze było powstanie tzw. procesora jednopłytowego, eliminującego znaczną liczbę najbardziej zawodnych mechanicznych połączeń elektrycznych. Do najbardziej znanych urządzeń tego typu należał procesor NOVA 1200, który - po zakończeniu służby w rakietach

balistycznych - trafił do licznych minikomputerów, sterowników przemysłowych, laboratoriów itp.3)

Koncepcja ta wróciła w ostatnich latach, dając w wyniku coś, co można określić mianem jednopłytowego komputera osobistego: jego płyta główna zawiera obecnie większość podstawowych układów, które przedtem występowały oddzielnie, co - z korzyścią dla niezawodności - eliminuje setki połączeń lutowanych i mechanicznych.

Wraz z miniaturyzacją podejmowano działania zwiększające prędkość działania układów elektronicznych. Dobrą ilustracją tego procesu są komputery osobiste: częstotliwość pracy ich zegarów taktujących przebyła drogę od niecałych 5 MHz w pierwszych modelach, do ponad 1000 MHz (1 GHz) obecnie. Na pierwszą zmianę o rząd wielkości (10-100) trzeba było czekać prawie 10 lat, następny taki skok zanotowano po kolejnych 5 latach. Nie sposób tu jednak nie zauważyć, że tej, osiągniętej niedawno prędkości pracy mikroprocesora nie można w pełni wykorzystać, gdyż nie nadąża za nim pamięć operacyjna. Podobne różnice sprawności działania współpracujących urządzeń były i są przyczyną licznych problemów.

Częstotliwość zegarów taktujących, niesłusznie utożsamiana z prędkością działania komputera, była (i - w pewnym sensie - jest) jednym z najbardziej nadużywanych kryteriów oceny sprawności komputerów. Nadużyć takich dokonywano nie tylko w materiałach marketingowych, ale również w licznych opracowaniach specjalistycznych. Ignorowano bezpośrednią nieporównywalność procesorów o odmiennej konstrukcji, złożoność wykonywanych przez nie pojedynczych instrukcji, a także równoległość działania układów i urządzeń autonomicznych. Nade wszystko zaś pomijano w tych rozważaniach cel stosowania, do jakiego odnoszono sprawność ocenianego komputera.


TOP 200