Problemy testowania

Znaczny przyrost wydajności procesorów utrudnia testowanie poprawności ich pracy.

Znaczny przyrost wydajności procesorów utrudnia testowanie poprawności ich pracy.

W mikroprocesorach dla komputerów PC przekroczono w tym roku barierę częstotliwości 1 GHz, a już w przyszłym będzie to zapewne 2 GHz. Niektórzy specjaliści uważają, że dalsze zwiększanie częstotliwości powyżej 1 GHz jest technicznie ryzykowne. Wydaje się, że praktycznym potwierdzeniem takiej opinii mogą być niedawne problemy Intela, który wycofał z rynku Pentium III 1,13 GHz.

Choć daleko jeszcze do osiągnięcia fizycznej bariery dalszego zwiększania wydajności układów wytwarzanych przy zastosowaniu obecnych technologii, to pojawił się istotny problem związany z procedurami testowania procesorów. Ze względu na to, że częstotliwość wewnętrzna układów rośnie znacznie szybciej niż szyny systemowej wykorzystywanej do wymiany danych z urządzeniami zewnętrznymi, niektórzy eksperci uważają, że dokładne przetestowanie prawidłowości funkcjonowania układów logicznych nowych procesorów jest praktycznie niemożliwe.

Niestety, nie ma prostego rozwiązania tego problemu. Zdaniem specjalistów, najlepiej byłoby zmodyfikować architekturę wprowadzając do procesorów wewnętrzne funkcje testujące poprawność ich funkcjonowania. Opinię tę podziela organizacja SIA (Semiconductor Industry Association), wymieniając funkcję testującą wśród pięciu podstawowych problemów technicznych, które muszą w najbliższym czasie zostać rozwiązane, jeżeli wzrost wydajności procesorów, zgodnie z prawem Moore'a, ma być utrzymany. Koszty takiej zmiany są jednak bardzo wysokie.

Według Joe Jonesa, dyrektora firmy Bridgepoint, specjalizującej się w testowaniu mikroukładów, m.in. dla Texas Instruments i Philips Electronics, zwiększanie częstotliwości pracy procesorów może być przyczyną wielu problemów, gdyż przesyłanie danych wewnątrz procesora odbywa się z różną prędkością zależnie od realizowanych instrukcji, np. dodawanie lub mnożenie - a wzrost częstotliwości może spowodować błąd w ich synchronizacji i wyniku obliczeń. Podobnie jest z układami arbitrażowymi decydującymi, kiedy i gdzie dane są przesyłane podczas wykonywania instrukcji rozgałęzionych - zwiększenie prędkości wewnętrznej przy utrzymaniu względnie wolnej wymiany danych z otoczeniem procesora może spowodować nawet zmianę kolejności wykonywanych operacji i w efekcie błąd wyniku.

Producenci są obecnie pod ogromną presją konkurencji i rynku, które wymuszają wzrost wydajności procesorów i obniżanie cen. Jeśli jednak polityka wprowadzania nowych układów o ewolucyjnie rozwijanej architekturze będzie kontynuowana, można oczekiwać, że konieczność wycofania z rynku wadliwie pracujących procesorów stanie się zjawiskiem coraz częstszym. Natomiast dla użytkowników nowych procesorów dużym zagrożeniem może być występowanie drobnych błędów obliczeniowych przy wykonywaniu niektórych specyficznych sekwencji instrukcji. Ich skutki są trudne do przewidzenia.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200