Serwery przyszłości

Producenci coraz intensywniej szukają nowych sposobów zwiększania wydajności serwerów i systemów IT. Może to złagodzić nieuchronną transformację technologii i wydłużyć czas życia systemów opartych na krzemie.

Rozwój technologii wytwarzania układów krzemowych nieuchronnie zbliża się do końca fizycznych możliwości. Za jakieś 10 lat – a może nawet wcześniej – wprowadzanie kolejnych generacji układów o większej gęstości upakowania tranzystorów (i mocy przetwarzania) najprawdopodobniej przestanie być możliwe. Nie wiadomo, czy wówczas będą już dostępne nowe technologie umożliwiające rewolucyjne zmiany, na przykład procesory kwantowe lub optyczne.

Na rozwój serwerów wpływa wiele czynników, m.in. postępy w opracowywaniu nowych technologii sprzętowych (procesorów, pamięci, interfejsów komunikacyjnych), innowacyjne pomysły związane z modyfikacją architektury, a także nowe zastosowania i aplikacje. Wśród nowych rozwiązań, które już wkrótce mogą mieć duży wpływ na wzrost wydajności serwerów, są m.in. technologie MXC i MCS. Pierwsza to technologia złączy optycznych, która może zmienić klasyczną infrastrukturę centrów danych. Architektura MCS (Memory Channel Storage) pozwala z kolei na znaczące zwiększenie pojemności pamięci operacyjnej bez zasadniczych zmian standardowej konstrukcji serwerów.

Zobacz również:

  • Wielka inwestycja Atmana w przetwarzanie danych
  • AI ma duży apetyt na prąd. Google znalazł na to sposób
  • OpenAI rozważa stworzenie własnych układów scalonych AI

Jednocześnie opracowuje się procesory (i serwery) o specjalizowanej konstrukcji. Stosując zestaw standardowych elementów, jak CPU, układ graficzny, różnego typu akceleratory itp., będzie można względnie szybko zaprojektować i ekonomiczne wyprodukować procesory mające istotnie wyższą wydajność niż układy uniwersalne przy obsłudze niektórych aplikacji. Nie jest to idea nowa, ale jej popularyzacja na większą niż dotąd skalę może istotnie wpłynąć na rynek serwerów.

Serwery specjalizowane i procesory na zamówienie

Serwer przeznaczony do obsługi określonego typu oprogramowania lub nawet jednej, konkretnej aplikacji to idea wykorzystywana obecnie w stosunkowo wąskim zakresie. Na rynku dominują uniwersalne platformy, które mogą obsługiwać każdą aplikację z większą lub mniejszą wydajnością. Ale widać coraz więcej przykładów, że jest to trend zyskujący popularność. Po przejęciu Sun Microsystems przez Oracle’a wielu analityków sądziło, że dalszy rozwój rodziny procesorów SPARC zostanie zahamowany i być może podzielą one los układów HP PA-RISC. Oracle znalazł jednak receptę na ich wykorzystanie - nie jako procesorów bezpośrednio konkurujących z innymi modelami RISC, EPIC (Itanium) lub masowo wytwarzanymi układami x86, ale wyspecjalizowanymi w obsłudze aplikacji oferowanych przez tego producenta. Firma ma obecnie pełną kontrolę nad architekturą procesorów, więc może ją dopasowywać do wymagań swoich aplikacji i odwrotnie. Pozwala to na zoptymalizowanie parametrów serwerów, a w zasadzie systemów zintegrowanych, takich jak Exadata lub Exalogic, i istotne zwiększenie ich wydajności. Z kolei Intel ogłosił ostatnio, że jednym z priorytetów tej firmy będzie rozwój układów SoC (System on Chip) oraz działów zajmujących się opracowywaniem i wytwarzaniem procesorów na zamówienie dużych klientów.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200