Procesory jutra

W laboratoriach fizyków, chemików i biochemików powstają projekty, które pod koniec obecnej dekady doprowadzą do powstania procesora o mocy obliczeniowej 1000 razy większej niż jego przodek z początków lat 80.

W laboratoriach fizyków, chemików i biochemików powstają projekty, które pod koniec obecnej dekady doprowadzą do powstania procesora o mocy obliczeniowej 1000 razy większej niż jego przodek z początków lat 80.

Skynet

"Światowa opinia publiczna nie była informowana, że już od poł. lat 80. w głębokiej tajemnicy trwały prace nad skonstruowaniem nowego, superwydajnego procesora. Naukowcy z laboratoriów kalifornijskiej firmy Cyberdyne przez wiele lat pracowali nad rozszyfrowaniem tajemnicy działania niezwykłego chipa, jaki w tajemniczych okolicznościach został znaleziony w 1984 r. i natychmiast ukryty w najtajniejszych sejfach firmy. Po wielu latach udało się rozgryźć problem i skonstruować własny procesor działający na podobnej zasadzie - procesor tak wydajny i szybki, że mógł symulować wiele cech ludzkiego mózgu, przede wszystkim był zdolny sam się uczyć, jedynie na podstawie obserwacji otaczającego świata. Wynalazek natychmiast przejęło wojsko i wykorzystało do zbudowania inteligentnych bezzałogowych maszyn latających naprowadzających się samodzielnie na cel. Potem zbudowano superkomputer, którego zadaniem było sterowanie całością działań bojowych armii USA. SKYNET był komputerem opartym na architekturze wielu superprocesorów, mógł więc z powodzeniem symulować niektóre ludzkie działania. Szybko wymknął się spod kontroli twórców i zaczął działać wbrew ich rozkazom. Gdy ludzcy nadzorcy postanowili go wyłączyć, uprzedził ich ruch i w obronie własnej zdetonował nad Los Angeles bombę atomową. Zginęło 3 mln ludzi". STOP!!, to na szczęście tylko fikcja - fragment scenariusza sławnego filmu Terminator 2. Jednak to, co dziś jest fikcją - jutro może być rzeczywistością. Bowiem od wielu lat trwają prace nad skonstruowaniem procesorów, które umożliwiłyby ludzkości osiągnięcie znaczącego postępu w realizacji projektu sztucznej inteligencji. Wielkie marzenie naukowców - stworzenie komputerowej repliki mózgu człowieka - prawdopodobnie nigdy nie będzie zrealizowane i ponura wizja Jamesa Camerona zapewne się nie ziści - przynajmniej nie tak szybko, jak to zaplanował artysta (zniszczenie Los Angeles ma się odbyć według niego już w 1997 r.). Aby uzyskać układy mniejsze i szybsze od dzisiejszych na pewno warto jednak pracować nad wdrożeniem alternatywnych technologii mikroprocesorowych.

Więcej, szybciej, taniej, wydajniej

Obecnie można wyróżnić kilka zasadniczych kierunków na drodze do uzyskania pożądanej gęstości upakowania elementów elektronicznych i zmuszenia ich do pracy z większą szybkością.

Bez zegara

Pierwszy z nich, to przełamanie dotychczasowego wieloletniego modelu pracy synchronicznej procesora i wykonanie układu bez zegara. Przewiduje się, że będzie on co prawda tylko nieco szybszy od klasycznego procesora, ale za to dużo łatwiejszy do zaprojektowania (za pomocą kompilatorów specyficznego języka wysokiego poziomu) i dużo bardziej efektywny energetycznie (prototypy zużywają pięć razy mniej energii niż ich synchroniczne odpowiedniki). Będzie on dużo tańszy, zarówno dla końcowego odbiorcy, jak również (może przede wszystkim) tańszy w fazie projektowania. Nie trzeba będzie wykonywać wielu kosztownych prototypów, ponieważ wszystkie błędy będą wykryte już na etapie software'owego modelu zanim dojdzie do zbudowania jakiejkolwiek części procesora (tak przynajmniej twierdzą naukowcy z Caltech - twórcy nowego oprogramowania).

Litografia rentgenowska

Inny kierunek, to powiększanie gęstości upakowania tranzystorów na płytce dzięki nowym metodom litografii.

Zamiast stosować metody fotograficzne i litografię świetlną, zaczyna się do tego celu wykorzystywać fale elektromagnetyczne mniejszej długości - tak zwane fale nanometrowe, a planuje się używać nawet promieni Roentgena. Pozwoli to na uzyskanie układów równoważnych zestawowi miliarda tranzystorów, pracujących z szybkością, którą dzisiejszy mikroprocesor mógłby uzyskać tylko z zegarem 1000 MHz. Podstawowe elementy tranzystorów - bramki elektryczne, będą około czterokrotnie mniejsze od dzisiejszych i przekroczą barierę 0,1 mikrona. Rozmiar ten nazywany w branży "koma jeden". Porównuje się go z szerokością pojedynczego pasma DNA.

Układy kwantowe

Kolejny pomysł polega na wykorzystaniu znanego od 1957 r. zjawiska tunelowego, które wygląda tak, że w sprzyjających warunkach elektrony przepływają przez barierę normalnie nie przewodzącą prądu i to z prędkością pięć razy większą niż w zwykłych półprzewodnikach. Wyjaśnienie tego fenomenu wymaga posłużenia się mechaniką kwantową - dziedziną fizyki stworzoną przez Maxa Plancka, dlatego przyszłe chipy pracujące na zasadzie tunelingu zapewne będziemy nazywać procesorami kwantowymi. Nie chce się wierzyć, ale urządzenia tego typu mogą pracować z teoretyczną szybkością 700 GHz!. Pierwsze chipy kwantowe będą to najprawdopodobniej pamięci o pojemności 10 gigabitów, które planuje wyprodukować firma Fujitsu na przełomie stuleci.

Biochip

Jednakże najbardziej chyba śmiały projekt procesora alternatywnego jest znany w literaturze naukowej jako "bio-chip". Istotą pomysłu jest wykorzystanie cząstek biologicznych do produkcji układów komputerowych - cząstki te zmuszone do działania jako bramki tranzystorowe pozwoliłyby na znaczące zmniejszenie rozmiarów sprzętu komputerowego. Substancjami, które najbardziej nadają się do wykorzystania w tej roli są białka bakteryjne. Ich cząsteczki są tak małe, że biokomputer o tej samej liczbie elementów logicznych, co dzisiejsze maszyny, mógłby być od nich nawet pięćdziesiąt razy mniejszy. Mniejsze bramki, to szybsze układy - w tym przypadku teoretycznie tysiąc razy szybsze. Technologia białkowa pozwoli także na zbudowanie niezwykle pojemnych chipów pamięci. Zakłada się, że będzie możliwe wyposażenie przyszłego komputera biologicznego w karty pamięciowe oparte na biochipach o łącznej pojemności jednego terabajta.

Czy zbudujemy inteligentne maszyny? Wymienione powyżej pomysły jeszcze niedawno byłyby zapewne tematem jakiejś powieści gatunku science-fiction, dziś są obiecującymi tematami badań naukowych. Nie wiemy dokładnie jaki był ów tajemniczy chip ze scenariusza Terminatora (dla tych, którzy nie widzieli filmu muszę zdradzić, że przybył on z przyszłości) - najbardziej prawdopodobne jest, że był to procesor białkowy, ponieważ technologia ta z samej swojej zasady nadaje się do rozwijania w kierunku budowy samouczących układów zdolnych do myślenia skojarzeniowego.

Zbudowanie komputerów obdarzonych inteligencją byłoby oczywiście wielkim tryumfem ziemskiej nauki i przyniosłoby człowiekowi rozliczne korzyści. Pamiętając jednak o tym, że wiele pożytecznych wynalazków ludzkość obróciła przeciw sobie, będziemy musieli w pierwszych dekadach nowego wieku bardzo uważać, aby inteligentne maszyny przez nas wykonane nie narobiły nam kłopotów. Cała nadzieja w Podstawowych Prawach Robotyki sformułowanych w 1950 r. przez Izaaka Asimova. Głoszą one, że robot nie może działać na szkodę swojego twórcy, ani doprowadzić swym postępowaniem do sytuacji, w której człowiek mógłby sam zrobić sobie krzywdę.

Ja jestem optymistą - myślę, że przeżyjemy rok 1997.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200