Szybciej niż światło

Naturalne granice, jakie napotykają projektanci komputerów, powodują poszukiwanie alternatyw dla klasycznych układów krzemowych. Jednym z możliwych rozwiązań jest budowa komputerów kwantowych.

Naturalne granice, jakie napotykają projektanci komputerów, powodują poszukiwanie alternatyw dla klasycznych układów krzemowych. Jednym z możliwych rozwiązań jest budowa komputerów kwantowych.

Granice wzrostu

Przed 40. laty inżynierom z firmy Texas Instruments (USA) udało się skonstruować pierwszy układ scalony. Konsekwencją tego wynalazku było pojawienie się na rynku, 7 lat później, słynnej serii maszyn cyfrowych IBM 360. W tym samym czasie pomnikowa postać mikroelektroniki - założyciel firmy Intel - Gordon Moore, formułuje swoją słynną prognozę, przewidującą podwajanie się gęstości upakowania układów scalonych co ok. dwóch lat. Owa reguła zresztą nie pretenduje do miana ściśle naukowego prawa, a jest jedynie ogólną hipotezą (okres podwojenia waha się od 18. do 24. miesięcy), sprawdzającą się jednak od lat w praktyce.

Pójdźmy zatem tym tropem i zobaczmy, co oznaczałby ów wykładniczy wzrost w ciągu najbliższych 30. lat. Przyjęcie stałej czasowej na poziomie półtora roku daje współczynnik wzrostu rzędu miliona (!). W takim stopniu musiałaby zatem wzrosnąć gęstość upakowania "scalaków" w roku 2028 w stosunku do dnia dzisiejszego. Czy krzemowy chip jest w stanie pomieścić tyle mikrostruktur? Przypomnijmy, że legendarna "kostka" Intela 4004 mieściła 2300 tranzystorów (słownie: dwa tysiące trzysta sztuk). Był to rok 1971. Ćwierć wieku później Pentium Pro ma już ich 5,5 mln. Co dalej? Wiele wzajemnie zależnych przeszkód, takich jak

  • szerokość ścieżki, czyli podstawowego wymiaru mikrostruktur

  • minimalne napięcia zasilania

  • pobór mocy (energia odprowadzana na zewnątrz - ciepło)

  • granice technologii litograficznych

  • ograniczenia organizacyjno-ekonomiczne (koszty, rynki zbytu).

    Sam Moore uważa, że dotychczasowy paradygmat rozwoju mikroelektroniki da się utrzymać jeszcze przez najbliższą dekadę. W tym czasie powinno dojść do przełomu, który pozwoli branży przeskoczyć rysujące się granice wzrostu. W przeciwnym wypadku mikroprocesor po prostu się "zagrzeje" albo ewolucja konstrukcji sięgnie kresu praw fizyki, które pozwalają na jego kontrolę. Tymczasem toczy się bój o kolejne miejsca po przecinku w świecie mikrometrów. Kilka lat temu zachwycaliśmy się ścieżkami wykonanymi w technologii 0,8 mm, następnie 0,35 i wreszcie 0,25 mm.

    Fabryka w próżni

    W zakładach New England, na 40-hektarowej powierzchni, 8000 pracowników IBM dopracowuje technologię CMOS-7S, pozwalającą na zwężenie ścieżek do 0,22 mm. Postęp ten osiągnięto w znacznej mierze dzięki zastąpieniu wewnętrznych połączeń aluminiowych miedzią. Ale takie przedsięwzięcia pokazują również trudności finansowo-planistyczne, o których często zapomina się w kontekście problemów czysto technicznych. Pierwsze mikroprocesory były dziełem kilkunastoosobowych zespołów projektowych, a koszty wdrożenia nie przekraczały 10 mln USD. Dziś potrzeba kilku miliardów, aby uruchomić zakład, który rzuci na rynek nowy scalony produkt.

    Klasa czystości "1" - wymagana przy produkcji najnowocześniejszych układów - to prawdziwa próżnia kosmiczna. Na metr sześcienny powietrza dopuszcza się nie więcej niż 30 półmikronowych cząstek, przy których ludzki włos (150 mikronów) prezentuje się niczym solidny dąb przy kłosie zboża. To tylko jeden z przykładów obrazujących wielkie wymagania (i wielkie koszty) związane z produkcją układów scalonych. Może się zatem zdarzyć, że w tym zakresie dojdziemy do granicy, za którą ceny "kości" będą rosły miast spadać, jak dotychczas. To oczywiście groziłoby zahamowaniem tempa rozwoju całej branży, a tym samym wielu obszarów o kluczowym znaczeniu dla całej cywilizacji.

    A kalkulacje rentowności nie zostawiają wiele miejsca na rezerwy zysku, jeśli rzecz dotyczy supernowych technologii. Tu za każdy poślizg czasowy czy błąd zarządzania płaci się słono. Przekonała się o tym w ub.r. firma AMD, kiedy produkcja K6 w III kwartale była o pół miliona mniejsza niż planowano. W efekcie stracono ponad 30 mln USD. Przyczyną był słabszy wskaźnik yield, czyli wydajności produkcji. Jest to zresztą wartość, będąca ścisłą tajemnicą firm elektronicznych, gdyż na jej podstawie można wnioskować o stopniu opanowania danej technologii, co rzutuje na finansowe parametry przedsiębiorstwa.

    Dość powiedzieć, że dla rutynowej produkcji wzmiankowany współczynnik oscyluje wokół 90%, nowe linie produkcyjne dopuszczają 80%, a poziom 60% uznaje się za klęskę. A czas również goni. Motorola rozpoczęła budowę swoich zakładów Fab-MOS-19 w 1995 r., zanim opanowała technologię 0,35 mm. I słusznie. Trzeba działać z wyprzedzeniem. Nim jednak osiągnięto docelowe moce produkcyjne dla PowerPC, zakładane na rok 1998, jasne było, że "z marszu" trzeba przechodzić na technologię 0,25. Tak się zresztą stało, podobnie jak w przypadku AMD i Intela.

  • W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

    TOP 200