Ewolucje i rewolucje

Na komputer PC składa się wiele elementów, które wytwarzają różni producenci, podobnie nowe technologie rozwija wiele niezależnych firm.

Na komputer PC składa się wiele elementów, które wytwarzają różni producenci, podobnie nowe technologie rozwija wiele niezależnych firm.

Szybki postęp technologii i pojawianie się na rynku nowego sprzętu peryferyjnego lub elementów o lepszych parametrach powodują, że często powstaje potrzeba modyfikacji wyposażenia komputera. Niestety, problemy nie są tu rzadkością, mimo rozwijanej od wielu lat techniki plug & play. Ich źródła leżą zarówno we wprowadzaniu elementów nie do końca przetestowanych, jak i konieczności dostosowania działania różnych składników systemu. Przykładami są problemy z dyskami Ultra ATA-33 (zawieszenia systemu związane z błędną transmisją danych przy zastosowaniu nieodpowiednich kabli połączeniowych) lub zła współpraca chipsetu Intel 810 dla Celeron z procesorami Pentium III.

Każda z firm podkreśla zalety i dobre parametry swoich produktów, a rzadko mówi wyraźnie o ograniczeniach i problemach ze współpracą z innymi elementami. W efekcie użytkownik jest zaskakiwany - coś nie działa, mimo że wydawało się, iż powinno. Kupując np. napęd DVD+RW, trzeba pamiętać, że nie odczyta on płyty formatu DVD-RAM, instalując szybką pamięć PC-133 trzeba wiedzieć, iż wymaga ona odpowiedniego chipsetu, podobnie jak dysk Ultra ATA-66 (jeśli, oczywiście, zachwalane przez producenta parametry mają być praktycznie wykorzystane), a cyfrowy monitor LCD nie będzie współpracował z analogową kartą graficzną.

Czy Java pogodzi konkurentów?

Wydaje się, że nic nie jest w stanie powstrzymać wzrostu wydajności procesorów dla komputerów PC. Już w tym roku można oczekiwać pojawienia się procesorów z zegarem 700 MHz, a w przyszłym zostanie przekroczona bariera 1 GHz. Ale tego rodzaju informacje nie wzbudzają już emocji i szczególnego zainteresowania większości użytkowników przede wszystkim dlatego że w przypadku typowego oprogramowania stosowanego w biurach lub firmach trudno jest wykorzystać dostępną moc procesorów. Intel więc m.in. zmodyfikował swoją politykę wprowadzając rodzinę procesorów Celeron, które są przeznaczone na rynek masowy, a także zapowiada rozwój układów StrongARM - tanich procesorów RISC przeznaczonych dla małych komputerów przenośnych i urządzeń elektronicznych powszechnego użytku.

Wielu użytkowników wprawdzie podchodzi z rezerwą do tego wyścigu wydajności, lecz należy zdawać sobie sprawę, że już w najbliższej przyszłości przyniesie on istotne, jakościowe zmiany na rynku. Superwydajne procesory są interesujące do zastosowań specjalnych - np. stacji graficznych, , skomplikowanych obliczeń, przetwarzania masowych danych lub dla miłośników gier komputerowych. Ale wzrost mocy układów otwiera też nowe możliwości zastosowań, jak popularyzacja systemów rozpoznawania mowy lub miniaturowych komputerów przenośnych o funkcjonalności niewiele ustępującej współczesnym PC.

Do niedawna platforma PC była względnie jednolita. Przy zakupie oprogramowania większość użytkowników nie musiała zwracać szczególnej uwagi na jego wersję - program był po prostu dla Windows lub Windows NT (także i dla DOS). Dziś sytuacja zmienia się radykalnie i takie hasła, jak Intel inside nabierają nowego, istotnego znaczenia. Nie tylko bowiem pojawiło się wiele różnych, niezgodnych mechanicznie lub elektrycznie architektur systemów komputerowych, jak gniazda Slot 1, Slot 2, Socket 370, Super 7, Slot A, Slot B, ale również wyraźnie różnicuje się struktura logiczna układów (nowe zestawy instrukcji) i rośnie rynek innych niż Windows 98 lub NT systemów operacyjnych, np. PalmOS, EPOC, Windows CE.

Czy ta tendencja spowoduje, że użytkownicy będą zmuszeni większą uwagę zwracać na to, jaki procesor i system operacyjny wykorzystuje komputer? Być może nie, jeśli nastąpi popularyzacja technologii Java, której idea polega na wprowadzeniu warstwy izolującej aplikacje od sprzętu i systemu operacyjnego.

Więcej i szybciej, ale bez emocji

Trzy podstawowe rodzaje pamięci wykorzystywane obecnie w komputerach to pamięci RAM, dyski magnetyczne i płyty optyczne, które tworzą wzajemnie uzupełniający się zestaw. Podstawowy kierunek rozwoju technologii we wszystkich typach pamięci jest oczywisty - wzrost gęstości, pojemności i szybkości dostępu. Ale oprócz zmian ilościowych, wywołuje on również poważne zmiany jakościowe, które w najbliższym czasie będą związane przede wszystkim z wprowadzeniem nowych typów RAM i popularyzacją DVD.

DVD jest rozwinięciem technologii CD i umożliwia uzyskanie znacznie wyższej gęstości zapisu. Na pojedynczej płycie optycznej można teoretycznie zapisać do 17 GB danych w porównaniu do jedynie ok. 650 MB na klasycznym dysku CD. Obecnie są już wprowadzane do sprzedaży urządzenia do wielokrotnego zapisu płyt optycznych - DVD-RAM i DVD+RW. Są to dwa niezgodne standardy nie pozwalające na wymienne korzystanie z płyt formatu DVD-RAM i DVD+RW, ale oba zapewniają wsteczną zgodność z dyskami CD-ROM, CD-R, CD-RW i DVD-ROM. Choć DVD jest postrzegane głównie jako sprzęt przeznaczony do zastosowań edukacyjno-rozrywkowych, to wysoka pojemność płyt optycznych może być atrakcyjna w przypadku korporacyjnych systemów przechowywania danych. Należy podkreślić, że wszyscy producenci profesjonalnych bibliotek dysków optycznych wprowadzili już do oferty modele wyposażone w napędy DVD. Największą przeszkodą w popularyzacji tej technologii jest wysoka cena sprzętu, głównie dysków DVD. Często więc bardziej ekonomiczne jest zastosowanie napędów CD-R lub CD-RW. Płyty CD-R są tanie i obecnie kosztują ok. 5 zł, a więc 20-40 razy mniej niż dyski CD-RW lub DVD.

Najbardziej stabilny wydaje się rozwój technologii dysków magnetycznych. Ich producenci co kilka miesięcy informują o osiągnięciu kolejnego rekordu gęstości zapisu - ostatnio gęstość 20 Gb/cal2 przekroczyły Fujitsu i IBM. Oznacza to, możliwość konstrukcji jednotalerzowych dysków o pojemności 20 GB. Jednak dyski takie pojawią się na rynku dopiero za 2-3 lata. Obecnie podstawowa pojemność talerza w 3,5" napędzie wynosi ok. 4 GB, a w nowych modelach przekracza 6 GB. Z punktu widzenia użytkownika, pojemność dysków nie wydaje się dziś najważniejszym problemem - tylko cena może stanowić ograniczenie. Należy jednak zwrócić uwagę na rodzaj interfejsu. Najnowsze wchodzące na rynek standardy to Ultra ATA-66 i SCSI 160. Ostatnia wersja SCSI, choć zaplanowana jako ewolucyjne rozwinięcie specyfikacji, zawiera sporo interesujących nowości: przede wszystkim zestaw funkcji do kontroli i zdalnego sterowania funkcjami dysku. Pełen zestaw funkcji nie jest jednak wymagany, aby urządzenie mogło mieć logo SCSI 160. Jeśli użytkownik zechce skorzystać z możliwości zdalnego zarządzania, powinien więc zwrócić uwagę, czy sprzęt ma oznaczenie SCSI 160/m, gdzie "m" jest skrótem od manageability (zarządzalność). Nowym interfejsem, który już wkrótce może zdobyć popularność, jest interfejs szeregowy IEEE 1394 (FireWire). Na razie interfejs ten nie znajduje masowych zastosowań ze względu na zbyt wysoki koszt implementacji. Producenci dysków twierdzą jednak, że wyposażenie napędów w IEEE 1394 nie stwarza problemu technicznego i zależy wyłącznie od tego, czy pojawi się zapotrzebowanie na takie dyski.

Rambus kontra PC-133

64 MB moduły pamięci RAM kosztowały w 1995 r. ok. 1800 USD. Obecnie ich cena spadła do 95 USD. Jednocześnie większość firm wytwarzających elementy półprzewodnikowe ma problemy z utrzymaniem zyskownej produkcji. Ale nawet wytwarzanie ze stratą nie powoduje zatrzymania linii produkcyjnych, gdyż to oznaczałoby znacznie większe problemy finansowe. Na każdą z fabryk przeznaczono inwestycje liczone w setkach milionów lub nawet miliardów dolarów. Najsilniejsze firmy próbują przeczekać trudny okres ograniczając produkcję, ale i inwestując w nowe technologie, które umożliwiają zwiększenie opłacalności i wyprzedzenie słabszych konkurentów. W efekcie szybko rośnie gęstość upakowania i pojemność układów pamięciowych. Najbardziej popularne są pamięci 16-megabitowe, ale rozpoczęło się już masowe wytwarzanie układów 128-megabitowych.

Dodatkowym bodźcem, który może zwiększyć popyt na pamięci, jest wzrost ich szybkości. Nie ulega wątpliwości, że już w II połowie tego roku rozpocznie się transformacja do systemów wykorzystujących układy Rambus DRAM i PC-133.

Pamięci Rambus mają inną architekturę niż obecnie wykorzystywane moduły SDRAM i wymagają stosowania odmiennych gniazd i chipsetów. Na pewno na początku będą też znacznie droższe od standardowych układów SDRAM i dlatego znajdą zastosowanie przede wszystkim w serwerach, stacjach roboczych lub wysokiej klasy komputerach PC.

Natomiast układy zgodne ze specyfikacją PC-133 już pojawiły się na rynku, choć nie ma jeszcze komputerów, które mogłyby wykorzystać ich parametry. PC-133 jest jednak standardem ewolucyjnym, tzn. pamięci tego typu mogą być instalowane w istniejących gniazdach i współpracować z układami obsługującymi pamięci PC-100. Również ich ceny są podobne.

Specyfikacja PC-133 jest popierana przez producentów tajwańskich, takich jak VIA Technology. Firmy te liczą, że zanim ceny pamięci Rambus spadną do poziomu akceptowanego przez rynek masowy, w tanich, popularnych modelach PC upowszechnią się pamięci PC-133. Leży to w interesie konkurentów Intela, którzy mogą, podobnie jak w ub.r. AMD, wykorzystać okres przejścia na nowe architektury do zwiększenia udziałów w szybko rosnącym rynku tanich komputerów PC.

W oczekiwaniu na LCD

Monitory LCD przyciągają coraz większą uwagę użytkowników, także w Polsce. Nie ulega wątpliwości, że w większości zastosowań, również w przypadku komputerów biurowych, zastąpią one klasyczne monitory kineskopowe. Otwartą kwestią pozostaje jedynie termin tego wydarzenia. Obecnie jedyną przeszkodą jest ich relatywnie wysoka cena. Typowe do zastosowań biurowych, 15" monitory LCD kosztują 4-6 tys. zł netto, a porównywalne 17" modele CRT ok. 1,5-2,5 tys. zł. W efekcie wielu potencjalnych użytkowników interesuje się monitorami LCD, ale niewielu je kupuje. Niestety, w tym roku nastąpiło spowolnienie tempa spadku cen. Wynika to z ok. 30% wzrostu cen paneli LCD, które wytwarza tylko kilku producentów na świecie.

W przyszłym roku, gdy zostaną uruchomione nowe fabryki i linie produkcyjne, prawdopodobnie nastąpi zwiększenie podaży paneli LCD i można oczekiwać spadku cen płaskich monitorów, zwłaszcza że następuje szybka transformacja technologii kart graficznych i większość nowych modeli jest wyposażanych w wyjścia cyfrowe. Oznacza to rozszerzenie możliwości wykorzystania cyfrowych wersji LCD, które są tańsze, ponieważ nie muszą zawierać przetworników analogowo-cyfrowych.


TOP 200