Intel bez drutu

Pierwszy dzień Intel Developer Forum, konferencji poświęconej najnowszym pomysłom i technologii Intela, która trwała od 16 do 18 września w San Jose, zdominowała prezentacja serwera osobistego.

Urządzenie o tak poważnej nazwie jest w istocie magazynem danych swego właściciela, zapisanych na twardym mikrodysku albo innym nośniku informacji i wyposażonym w procesor do ich obsługi. Albo inaczej - jest komputerem, który pozbawiono najcięższych i zajmujących najwięcej miejsca urządzeń wejścia-wyjścia: dysków, napędów, klawiatury, monitora i głośników. Dzięki temu może się zmieścić w dłoni, w kieszeni lub damskiej torebce.

Komputer intymny?

Ekran i klawiaturę albo - jak mówił przedstawiający projekt Roy Want - „window” będzie można znaleźć wszędzie: w kioskach, na przystankach komunikacji miejskiej, w centrach handlowych, tablicach informacyjnych, we w pełni wyposażonych „kompletnych” komputerach, a także we własnej komórce. W przypadku ich braku funkcję wyświetlacza awaryjnego ma pełnić konsola wielkości zegarka na rękę.

Zobacz również:

  • Powstała najnowocześniejsza na świecie fabryka chipów
  • Netgear wkracza z Wi-Fi 7 dla klientów biznesowych

Dostęp do serwera osobistego ma być możliwy tylko przez wbudowany układ do połączenia radiowego bliskiego zasięgu. W miejscach „bezpiecznych”, w domu czy pracy, logowanie ma być uproszczone, w innych - podlegać rygorom firewali i kryptografii. Za pomocą serwera będzie można też zarządzać pracą drukarki, radia, telefonu, a nawet regulować położenie siedzenia do swoich potrzeb w świeżo wynajętym samochodzie.

Bez potykania się o przewody

Intel stawia na połączenia radiowe. Na królową ostatniej mili, a właściwie 100 metrów, bo taki ma zasięg bez dodatkowych punktów dostępowych, koronowano technologię Wi-Fi. W istocie została zoptymalizowana do łączności tylko pod jednym dachem. Już myśli się o następcy tronu, silniejszej i bardziej elastycznej wersji WiMax, z lepszą korekcją błędów. Jej przewaga także polega na oszczędnym wykorzystywaniu pojemności sieci. Szerokość pasma używanego do transmisji nie jest stała, lecz zależy od obciążenia. Teoretycznie transfer obu dobrze przekracza 50 megabitów na sekundę, ale praktycznie dziennikarze obdarowani królewskimi kartami mieli kłopoty z uzyskaniem nawet kilkakrotnie mniejszej wydajności w budynku hotelu.

Zresztą Intel nie radzi przyzwyczajać się do określonego typu połączenia i na dowód zademonstrował w akcji uniwersalną, niezależną sprzętowo architekturę transmisji. Jeden plik był transferowany bez przeszkód mimo wielokrotnej zmiany sposobu przesyłania, wymuszanej przekładaniem wtyczek. Chodzi nie tylko o transmisję komputerową, ale i o integrację z telefonami komórkowymi i innymi urządzeniami. Jeden z kolejnych pomysłów z tej grupy polega na dodaniu do jednej pary anteny i odbiornika kilku następnych. Uzyskuje się w ten sposób wyższą szybkość przesyłania jednego strumienia danych albo możliwość jednoczesnego przekazywania kilku. Poprawia się charakterystyka kierunkowa, co jest wyjątkowo przydatne w budynkach pełnych zakłócających elementów. Rosną osiągi systemu: logarytmicznie powiększa się zasięg, a liniowo – przepustowość, np. w przypadku dwóch par zasięg rośnie o 40 procent, wydajność – podwójnie.

Dyski asynchronicznie i wielowątkowo

Ciekawe możliwości ma Serial ATA w nowej wersji, która ma wejść na rynek za pół roku. Wprowadzono dodatkowy system pracy na podobieństwo używanego już w procesorze wielowątkowym. Twardy dysk może pracować tak jak dotąd, synchronicznie, albo realizować zamówienia nie tyle w miarę ich napływania, a raczej zbierać je w kolejkę i wykonywać w takiej kolejności, jaka wymaga najmniejszej pracy mechanizmów napędowych, przesuwu głowicy i obrotów talerza. Kolejka jest zarządzana dynamicznie, przyjmuje w każdej chwili nowe zlecenia i optymalizuje ich wykonanie. Dzięki temu jakby „przy okazji” jednocześnie kompletuje się kilka plików, więc cały proces podlega przyspieszeniu średnio o 25 procent. Ale największą korzyścią z asynchronicznej pracy dysku jest mniejszy hałas, mniejsze zapotrzebowanie na energię i wolniejsze zużywanie się mechanizmów. Niestety, większość dotychczasowych aplikacji jest napisana do trybu synchronicznego i bez drobnych poprawek (o których poinformujemy w jednym z najbliższych numerów PCWK) i ponownej kompilacji nie wykorzysta się nowych możliwości.

Na deser w krzemie

Niespodzianką mniejszego kalibru był pokaz nowej wersji procesora Pentium 4. Znany wcześniej rdzeń hiperwątkowy 3,2 GHz z dwoma poziomami pamięci podręcznej uzupełniono o trzeci, mający aż 2 MB pojemności. Ten dodatek powinien poprawić pracę z wielkimi strumieniami, takimi jak pliki video. Nie podano ceny, ale z racji dużych kosztów dodatkowego SRAM-u raczej nie będzie niska.

Dalszego zwiększenia szybkości procesorów należy oczekiwać dopiero po wprowadzeniu do produkcji układów w technologii 90-nanometrowej, w której dodatkowo wykorzysta się lepsze parametry odkształconego krzemu. Intel oświadczył, że może produkować takie elementy po rozsądnych kosztach dzięki zmniejszeniu liczby defektów do ekonomicznie tolerowanych rozmiarów. Co prawda, pokazano wafel o jeszcze węższych, 65-nanometrowych ścieżkach, ale na seryjną produkcję i kolejny wzrost mocy obliczeniowej trzeba będzie jeszcze poczekać. Pierwszy naprawdę mobilny procesor Centrino zostanie zluzowany przez Pentium M w technologii 90 nm oraz nowy chipset 855GME z układem do wyjątkowo oszczędnego sterowania wyświetlaczem.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200