Srebrne wesele

Kiedy 15 listopada 1971 r. ukazała się w czasopiśmie "Electronic News" reklama, w której firma Intel chwaliła się, iż "ogłasza nadejście nowej ery w świecie elektroniki układów scalonych", nie było łatwo odróżnić ten tekst od innych ogłoszeń, pełnych zapewnień o pojawieniu się na rynku kolejnych produktów będących "nr 1 na świecie".

Kiedy 15 listopada 1971 r. ukazała się w czasopiśmie "Electronic News" reklama, w której firma Intel chwaliła się, iż "ogłasza nadejście nowej ery w świecie elektroniki układów scalonych", nie było łatwo odróżnić ten tekst od innych ogłoszeń, pełnych zapewnień o pojawieniu się na rynku kolejnych produktów będących "nr 1 na świecie".

Wydawało się, iż jest to jeszcze jeden chwyt reklamowy, nie mający realnego uzasadnienia. Jednak anonsowany wtedy produkt - pierwszy mikroprocesor o handlowej nazwie 4004 - okazał się naprawdę urządzeniem rewolucyjnym, zaś datę listopadową przyjęło się uważać za początek współczesnej Epoki Informacji.

Historia wynalazków i odkryć naukowych pełna jest pasjonujących i barwnych opowieści, przypominających niekiedy scenariusze filmowe. Wiele powszechnie używanych dziś produktów powstało dzięki szczególnemu zbiegowi okoliczności albo "przy okazji", jako produkt uboczny procesów badawczych, poświęconych zupełnie innym - dziś już zapomnianym - zagadnieniom. Podobnie było z projektem mikroprocesora, który - jak czytamy we wspomnieniach jego autorów - powstał właściwie dzięki przypadkowi.

Elektronika przed mikroprocesorem

W latach 60. przemysł komputerowy znajdował się w sytuacji, którą wielu analityków uważało za stabilną. Maszyny tranzystorowe rządziły światem - były drogie i znajdowały się tylko w laboratoriach rządowych, uniwersytetach, w wydziałach projektowych wielkich koncernów i w ośrodkach obliczeniowych, sprzedających czas pracy swoich komputerów na godziny. Nikt nie protestował przeciwko temu stanowi rzeczy, ponieważ wydawało się, że istniejąca liczba maszyn liczących w zupełności wystarcza i w pełni zaspokaja wszystkie potrzeby świata nauki i biznesu. Nikt nie marzył o komputerze osobistym, ponieważ nie widziano dla niego żadnego zastosowania.

Co jakiś czas pojawiały się odkrycia, dzięki którym elementy elektroniczne mogły być produkowane taniej, stawały się też mniejsze i mniej energochłonne. Niezależnie od siebie, Robert Noyce i Jack Kilby skonstruowali w 1958 układ, który na jednej płytce krzemu zawierał kilka tranzystorów (na początku poniżej 10). Twórcy nazwali swój wynalazek "układem scalonym" - pozwolił on na znaczne zmniejszenie wymiarów wszystkich maszyn elektronicznych, w tym również komputerów, które przestały wreszcie zajmować pokoje wypełnione dotąd masywnymi metalowymi prostopadłościanami i zaczęły mieścić się w sporej, co prawda, ale tylko jednej szafie.

Na fali popularności "scalaków" powstała firma Intel (założycielami byli w 1968 r. Robert Noyce i Gordon Moore). Nawet jej nazwa wzięła się od tej - najmodniejszej wówczas - technologii (INTegrated ELectronics, czyli Elektronika Scalona). Najważniejszą misją firmy był na początku projekt zbudowania taniego układu pamięci półprzewodnikowej - projekt ambitny, gdyż w tamtych czasach pamięci tego typu kosztowały co najmniej 100 razy więcej od najpopularniejszych wtedy układów magnetycznych. Założyciele Intela podjęli jednak wyzwanie, gdyż uznali, że zalety nowej pamięci - mniejsze rozmiary, większa szybkość, zmniejszone zużycie energii - spowodują zwiększenie zainteresowania przemysłu ich produktem, wzrost liczby zamówień, a więc również powiększenie rozmiarów produkcji i zmniejszenie ceny układu.

Wejście Busicoma

W połowie 1969 r. zajęta pracami nad pamięcią firma Intel przyjęła - wśród wielu innych podobnych - wyglądające na zupełnie zwyczajne, zamówienie od japońskiego producenta kalkulatorów. Dziś już nie istniejąca firma Busicom zamówiła serię specjalizowanych układów scalonych do rodziny produkowanych u siebie szybkich programowanych urządzeń liczących. Było to zamówienie typowe dla tamtych czasów, w których do każdego nowego urządzenia elektronicznego tworzono inne układy scalone. Nie trzeba chyba wspominać, jak wielkie marnotrawstwo czasu spędzonego na projektowaniu wywoływał taki model procesu produkcyjnego.

To jednak miało się już za chwilę zmienić nie do poznania. Zatrudniony w Intelu rok wcześniej inżynier Marcian (zwany też Ted) Hoff został wyznaczony jako prowadzący zamówienie dla Busicoma. Zauważył on że dla zrealizowania projektu trzeba specjalnie stworzyć minimum 5 (w optymalnym układzie powinno ich być 12) układów scalonych i doszedł do wniosku, że takie działanie będzie zbyt skomplikowane, aby mogło się opłacać. Nie było wtedy w firmie wolnych mocy przerobowych, ponieważ większość inżynierów była już zajęta przy innych pracach.

Ted Hoff zaproponował zupełnie inne podejście do problemu: wystąpił z projektem układu, w którym zredukował liczbę instrukcji używanych w dotychczasowych układach scalonych i dodał wspierający chip pamięci, co tworzyło razem wielofunkcyjny programowalny procesor o dowolnym przeznaczeniu. "Procesor mógłby być używany do różnych zadań, które realizowałby program zapisany w pamięci. Zamiast tworzyć urządzenie działające jak kalkulator, postanowiłem zbudować układ uniwersalny, który można było zaprogramować, by działał jak kalkulator" - wspomina Ted Hoff.

Wraz z dwoma współpracownikami zbudował on jeszcze w tym samym roku prototyp urządzenia, składającego się z czterech układów: centralnego procesora (CPU), pamięci tylko-do-odczytu (ROM), przechowującej program, pamięci ogólnego dostępu (RAM) do przechowywania danych i rejestru buforującego operacje wejścia/wyjścia (I/O). Urządzenie to nie miało wtedy jeszcze swojego imienia (używano technicznej nazwy symbolicznej 4004), zaś mikroprocesorem nazwano je znacznie później. Zestaw 4004 przypominał nieco procesor komputera PDP 8 firmy DEC, składał się z 2300 tranzystorów, wykonywał 60 tys. operacji na sekundę i miał naprawdę mikroskopijne rozmiary (3x4 mm), ale mocą obliczeniową dorównywał ENIACowi z 1946 r., który - przypomnijmy -zajmował objętość 85 m3 i składał się z 18 tys. lamp elektronowych.

Przejęcie praw

Kontrahenci z Busicoma na początku nie byli pewni, czy projekt Teda Hoffa jest dla nich korzystny, ale w 1970 r. zgodzili się na zmianę kontraktu i sfinalizowali skonstruowanie komercyjnej wersji urządzenia. Układ 4004 ostatecznie trafił na rynek pod koniec 1971 r. i został zamontowany w kalkulatorach, których sprzedano ponad 100 tys.

Wśród pracowników Intela rozgorzał spór o to, czy nowy procesor ma przed sobą przyszłość inną niż tylko obsługa kalkulatorów. Niektórzy nie skojarzyli początkowo, jaką wartość przedstawia sobą wynalazek -"Pierwotnie uznaliśmy to za sposób na sprzedanie większej ilości pamięci - przecież w każdym zestawie znajdowały się dwa takie układy - i chcieliśmy prowadzić inwestycje opierając się na tym założeniu" - wspomina Ed Gelbach, ówczesny dyrektor działu marketingu.

Ted Hoff i Stan Mazor byli jednak przekonani o rewolucyjnym znaczeniu swojej konstrukcji i przedstawili własną listę możliwych zastosowań procesora: kasy sklepowe, automaty do wymiany pieniędzy, sterowniki świateł na skrzyżowaniach. Nalegali, aby kierownictwo Intela odkupiło od firmy Busicom prawa autorskie do 4004 za sumę, jaką poprzednio zapłacili Japończycy. Wreszcie Intel podjął trudną decyzję: w zamian za dostawę elementów po niższej cenie zaproponował firmie Busicom odkupienie praw do układu Teda Hoffa, co umożliwiłoby mu użycie procesora w innych urządzeniach niż kalkulatory. Borykająca się z kłopotami finansowymi japońska firma przyjęła propozycję i umowa doszła do skutku za cenę 60 tys. USD.

Kontrakt przeszedł praktycznie bez echa zarówno w Intelu, jak i w branży, był on jednak wyjątkowo brzemienny w skutkach: "Porozumienie z Japończykami było nieskomplikowane z prawnego punktu widzenia, jednak ta prosta umowa okazała się mieć znaczenie historyczne" - wspomina Robert Noyce. Przed firmą Intel otworzyła się prosta droga do kolosalnej kariery. "W końcu uznaliśmy, że mikroprocesory były następną rzeczą, jaką chcieliśmy robić oprócz pamięci. Zobaczyliśmy w tym nowy kierunek w przemyśle półprzewodnikowym. Dzięki programowaniu można było sprawić, aby ten sam układ wykonywał szeroki wachlarz najróżniejszych aplikacji" - wyjaśnia Gordon Moore.

Życie po 4004

Układ 4004 nie był nadmiernie wyrafinowany i mógł się przydać jedynie do sterowania niezbyt skomplikowanymi urządzeniami elektronicznymi. Mimo to wywołał znaczne zainteresowanie rynku, zwłaszcza że za sprzedażą procesorów poszły dostawy pierwszych elementarnych narzędzi do projektowania aplikacji. W następnych latach "pomoce do projektowania" - jak je nazywano - zaczęły przynosić dochód większy niż elementy elektroniczne. "Na początku sprzedaży narzędzi do programowania spotkaliśmy się z sytuacją, która okazała się prawdziwą ciekawostką: okazało się, że musieliśmy spędzać więcej czasu na drukowaniu i wysyłaniu instrukcji obsługi i podręczników programowania niż na sprzedaży mikroprocesorów" - powiedział kiedyś Ed Gelbach.

Aby utrzymać się na krzywej wzrostu trzeba było natychmiast rozpocząć prace nad następnym urządzeniem, mogącym zaoferować większe możliwości. W kwietniu 1972 r. światło dzienne ujrzał procesor 8008, zrealizowany w technice 8-bitowej, który - w przeciwieństwie do swego wyłącznie arytmetycznego poprzednika - oferował również zestaw operacji na znakach. Okazało się jednak, iż dla niektórych wymagających klientów układ ten był wciąż za wolny i wymagał wsparcia zbyt wielu dodatkowych układów. Dopiero w kwietniu 1974 pojawił się przełomowy procesor, który może być nazwany pierwszym naprawdę uniwersalnym urządzeniem cyfrowym. Nazwano go 8080.

Nowy mikroprocesor wykonywał 290 tys. operacji na sekundę, mógł adresować 64 Kb pamięci i wymagał wsparcia tylko 6 dodatkowych układów - zamiast 20, jak jego poprzednik. W pracach projektowych brał udział były pracownik firmy Busicom, Masatoshi Shima, który uporał się z zadaniem w niecały rok. Bezpośrednio po wprowadzeniu na rynek 8080 kosztował 360 USD, co było doskonałą ceną za oferowaną moc obliczeniową. "Poza wszystkim sprzedawany przez nas układ był w zasadzie sam w sobie komputerem, który zwykle kosztował wtedy tysiące USD. Czuliśmy więc, że nasza cena jest dość rozsądna" - wspomina Dave House, obecny wiceprezes Intela.

Intel przoduje

Na wprowadzenie układu 8080 rynek odpowiedział prawdziwą owacją - procesor Intela rychło stał się przemysłowym standardem i potwierdził przepowiednie na temat rewolucyjnego znaczenia nowego typu układów. Do akcji wkroczyli jednakże konkurenci - Zilog wystąpił z układem Z-80, zaś Motorola opracowała udany model 6800 o architekturze bardzo łatwej do programowania. Intel był jednak już mocny i bogaty - miał też możliwości bardzo szybkiego produkowania i dostarczania gotowych produktów (hasłem reklamowym firmy był w tamtych czasach slogan "Intel delivers", czyli "Intel dostarcza"). "Zrobiliśmy wielki wysiłek na rzecz efektywnej sprzedaży - uruchomiliśmy dział wspierania klientów i dostarczania im nie tylko oddzielnych produktów, ale kompletnych rozwiązań dla ich problemów. Ta strategia opłaciła się - w pół roku po wprowadzeniu 8080 Intel zawładnął rynkiem 8-bitowym" - mówi Dave House.

W roku 1976 wysiłki projektowe firmy musiały się podzielić na dwie części: jedna dbała o linię 8-bitową, mając za zadanie utrzymanie wiodącej pozycji Intela w tym sektorze; druga pracowała nad nową generacją procesorów opartą na dwukrotnie szerszej szynie danych. Efektem prac prowadzonych w tym okresie było zbudowanie mikroprocesora, który miał dwie wersje: 8- i 16-bitową, będąc jednym produktem w dwóch wcieleniach. Handlowe nazwy tych układów to 8086 i 8088. Ten pierwszy wykazywał wydajność 10 razy większą niż niedawny lider 8080.

16 bitów

Mikroprocesor 8086 ukazał się w czerwcu 1978 r. i był na tyle nowatorski, że musiały minąć prawie dwa lata, zanim na dobre zagościł na rynku. Układ był zaiste skomplikowany, miał zawiłą architekturę, a do jego projektowania trzeba było zatrudnić aż 20 osób - rzecz niezwykła w tamtych czasach.

"Czuliśmy, że zagadnieniem kluczowym dla prawidłowego prowadzenia prac było stworzenie optymalnej metodologii procesu projektowania. Nie mieliśmy wtedy dzisiejszych wspaniałych narzędzi CAD - wszystko trzeba było sprawdzać ręcznie, dążyliśmy więc do zminimalizowania liczby kroków poprzez drobiazgowe planowanie. Cały rysunek układu mieścił się na siedmiu rolach papieru, które trzeba było oglądać jednocześnie. Obraz przypominał fresk i zawierał się w kwadracie o boku 7,5 m" - wspomina kierownik zespołu 8086 Claude Cornet.

Na początku sprzedaż 16-bitowego systemu szła nie najlepiej - nie było jeszcze na rynku zapotrzebowania na tak wielką moc obliczeniową. Nie było aplikacji mogących wykorzystać w pełni nowe możliwości; nie było nawet odpowiedniego systemu operacyjnego. Dopiero na początku 1980 r. sprzedaż zaczęła gwałtownie rosnąć. Aby pokonać konkurencję, a zwłaszcza doskonały procesor Motorola 68000, Intel rozpoczął intensywną kampanię pod hasłem "Intel dostarcza rozwiązania", organizował liczne seminaria i prezentacje - prowadził prawdziwą wojnę o rynek.

Kampania doprowadziła do tego, że tylko w ciągu jednego roku procesory 8086 i 8088 znalazły zastosowanie aż w 2500 różnych wyrobach! Sprawiła też, że do 1984 r. sprzedaż 86 przewyższyła konkurencyjny układ Motoroli w stosunku 9 do 1 i umocniła pozycję Intela, jako lidera w branży. Powodzenie akcji było również powodem, dla którego procesor 8088 został wybrany do zastosowania w urządzeniu, które na zawsze odmieniło świat.

Wejście IBM

Na początku ery mikroprocesorów nikt nie przypuszczał, że można będzie je zastosować w komputerach powszechnego użytku. Widziano te układy w różnych aparatach, ułatwiających ludziom życie, ale wśród nich nie było maszyn liczących - trudno było w tamtych czasach znaleźć jakiekolwiek zastosowanie dla komputera osobistego.

W połowie lat 70. do Gordona Moore'a zwrócił się jeden z inżynierów z pomysłem, aby wyposażyć układ 8080 w klawiaturę oraz monitor i sprzedawać go nabywcom indywidualnym. "I na co to komu? - zapytałem. Na przykład gospodynie domowe mogłyby w tym trzymać swoje przepisy kulinarne - odpowiedział pomysłodawca. Potraktowałem to jako żart i więcej nie wracałem do sprawy, nie widząc w proponowanym urządzeniu niczego przydatnego" - przypomina Gordon Moore.

Jednak znalazł się ktoś, kto zaryzykował i w tym samym czasie (dokładnie w 1975 r.) pojawił się na rynku MITS Altair, uważany dzisiaj za pierwszy komputer osobisty. Oparty był on właśnie na procesorze 8080 i - wbrew obawom Gordona Moore'a - szybko znalazł nabywców - w pierwszym roku sprzedano 2 tys. egzemplarzy tego urządzenia. Komputer osobisty stał się faktem.

Rynek mikrokomputerów był na tyle atrakcyjny, że postanowił nań wkroczyć "błękitny gigant" IBM. W największej tajemnicy projektowano od początku 1980 r. urządzenie, które miało mieć architekturę otwartą i opierać się na procesorze, będącym standardem przemysłowym swoich czasów. Agresywna kampania reklamowa Intela sprawiła, że wybrany został układ 8088, choć na rynku dostępny był już świetny i pod wieloma względami rewolucyjny, jak na tamte lata, 32-bitowy (!) procesor Motorola 68000, zastosowany trzy lata później w Macintoshu.

Jednak to Intel wyznaczył standard, a dzięki decyzji IBM-a stał się liderem również w następnej dekadzie. Pomyśleć tylko, że pierwszy kontrakt na dostawę procesorów dla IBM PC opiewał zaledwie na 10 tys. sztuk rocznie - trudno było przewidzieć, do jakich rozmiarów rozrośnie się rynek PC w dzisiejszych czasach.

Uzależnieni od komputera

Ocenia się, że obecnie pracuje na świecie ponad 200 mln komputerów osobistych. Bez wątpienia wynalezienie mikroprocesora przed 25 laty odmieniło naszą cywilizację. Dostrzeżono to już w latach 70. - w jednym z numerów Fortune z 1975 r. znalazł się taki oto fragment:

"Mikroprocesor jest jednym z tych rzadkich wynalazków, które pozwalają na zmniejszenie kosztów produkcji i jednocześnie dodają mnóstwa wartości użytkowych do wyposażonych w nie produktów. W rezultacie znalazł zastosowanie w wielu już istniejących urządzeniach i pozwolił na skonstruowanie nowych, o których przedtem nikomu się nawet nie śniło".

Opinia ta nabiera jeszcze większej mocy w naszej dekadzie, w której jesteśmy świadkami tak wielkiego uzależnienia ludzkości od maszyn cyfrowych. Mały przedmiot zrewolucjonizował całkowicie metody projektowania i używania komputerów, wprowadzając je dosłownie pod strzechy. Ale sprawił też dużo więcej: odmienił na zawsze sposób, w jaki ludzie zdobywają, przetwarzają i gromadzą informacje, w jaki pracują i porozumiewają się między sobą.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200