Zwiększamy moc

Nowa strategia wiąże się z wciąż rosnącym zapotrzebowaniem na przetwarzanie danych, więc musimy rozwijać nowe technologie w tym kierunku i dostarczać naszym klientom coraz lepsze rozwiązania - rozmowa z Krzysztofem Jonakiem - EMEA Territory Sales Director, Intel

Zwiększamy moc

Krzysztof Jonak, INTEL, MPR

Niedawno CEO Intela, Pat Gelsinger, ogłosił 'IDM 2.0' Strategy for Manufacturing, Innovation and Product Leadership. Jakie są najważniejsze założenia nowej strategii?

Najważniejsze elementy tej rozbudowanej strategii są związane z obszarami produkcyjnymi, co zresztą podkreśla sama nazwa. Nasza strategia związana z produkcją opiera się na trzech podstawowych filarach. Jest to większe wykorzystanie i rozbudowa naszych własnych fabryk, wykorzystanie mocy produkcyjnych partnerów oraz powołanie oddzielnej firmy, Intel Foundry Services, która będzie oferowała nasze moce produkcyjne firmom trzecim na całym świecie. Planujemy zainwestować 20 mld USD w dwa nowe zakłady produkcyjne w Arizonie, rozbudowujemy też naszą fabrykę w Irlandii i Izraelu oraz poszukujemy kolejnej lokalizacji w Europie. Nowa strategia, co warto podkreślić, wiąże się z wciąż rosnącym zapotrzebowaniem na przetwarzanie danych, więc musimy rozwijać nowe technologie w tym kierunku i dostarczać naszym klientom coraz lepsze rozwiązania.

Zobacz również:

  • GlobalFoundries może trafić w ręce Intela

W wypowiedzi Pata Gelsingera mowa jest m.in. o nowej erze innowacji - o jakich innowacjach tu mówimy?

Przede wszystkim o rozwoju kolejnych generacji procesorów i sposobach zwiększania gęstości półprzewodników, czyli obszarów, w których dysponujemy ogromną wiedzą i doświadczeniem. Mamy technologię o nazwie Foveros umożliwiająca budowę procesorów w zupełnie nowy sposób. Chciałbym tu podać jako przykład jej użycia układ graficzny z rodziny Xe skierowany do centrów danych, o nazwie kodowej Ponte Vecchio, który składać się będzie z 47 różnego rodzaju elementów, w których upakowano, dzięki Foveros, ponad 100 mld tranzystorów. Technologia ta umożliwia również łączenie różnego rodzaju części. Można połączyć rdzeń wykonany w jednym procesie technologicznym z kontrolerami wykonanymi w innym procesie technologicznym z gwarancją, że te wszystkie klocki będą do siebie pasowały i rozwiązanie będzie działać.

Warto zauważyć, że pojedynczy procesor ma dziś możliwość przetwarzania danych na poziomie jednego teraflopa, a w 2008 roku Galera, superkomputer działający w Gdańsku, który zajmował sporą część serwerowni, miał możliwość przetwarzania danych na poziomie około 50 teraflopów. To jeden z przykładów postępu i rozwoju innowacyjnych technologii.

Obecnie aktywnie wchodzimy w segment rozwiązań graficznych, zarówno dla data center jak i dla użytkowników indywidualnych. Intel był dotąd znany głównie z grafiki zintegrowanej w procesorze, natomiast teraz będziemy rozszerzali ofertę o dedykowane rozwiązania. To jest kolejny element innowacyjności. Niedawno podpisaliśmy umowę o strategicznej współpracy z firmą IBM m. in. przy opracowywaniu nowych procesów technologicznych i nowych rozwiązań. Wierzymy, że przyspieszy to rozwój kolejnych produktów.

Jakie ta strategia będzie miała przełożenie na działanie firmy Intel w Polsce?

W Polsce cały czas się mocno rozwijamy. W Gdańsku, w dwóch lokalizacjach, zatrudniamy już ponad 3 tys. osób. Obecnie rozpoczynamy budowę kolejnego budynku w kampusie przy gdańskim lotnisku. Mamy tu też największy w Europie dział R&D. Polscy inżynierowie z pewnością będą uczestniczyli w rozwoju kolejnych generacji produktów. Warto może przypomnieć, że nasz oddział w Gdańsku miał duży wkład w rozwój interfejsu USB, który wszyscy dziś znamy.

Chciałabym porozmawiać na temat premiery nowych procesorów Intel Xeon, zwanych również Ice Lake, które stanowią fundament najnowszego portfolio Intela. Jak nowe rozwiązania wpisują się w transformację technologiczną firm?

Transformacja cyfrowa, jaką dziś przechodzi większość firm, powoduje duże zapotrzebowanie na przetwarzanie danych. Wypuszczając kolejne generacje rozwiązań dążymy do tego, żeby były coraz mocniejsze, przetwarzały dużo więcej danych oraz robiły to szybciej i przy mniejszym zużyciu energii. To właśnie potrafi trzecia generacja skalowalnych procesorów. Mało tego, zawierają one również elementy bezpieczeństwa. Cześć klientów korzystających z infrastruktury chmurowej zastanawia się często nad tym, na ile ich dane są bezpieczne i czy nie będą się mieszały z innymi danymi w data center. Wiadomo, że istnieją różnego rodzaju technologie, które mogą zagwarantować bezpieczeństwo i separację danych, zaczynając od fizycznych, wydzielonych serwerów przez wirtualne maszyny itd., ale my poszliśmy jeszcze o krok dalej. Trzecia generacja Xeonów to rozwiązanie SGX, zwiększające bezpieczeństwo danych na poziomie procesora. Technologia ta umożliwia stworzenie przestrzeni chronionej w pamięci systemowej, w której zamykane są najważniejsze dane i dostęp do nich jest niemożliwy bez odpowiednich uprawnień i kluczy. Pomimo tego, że wszystkie dane w czasie przetwarzania są również szyfrowane, nie ma to wpływu na wydajność systemu. Bezpieczeństwo, a także wsparcie dla sztucznej inteligencji są kluczowe jeśli chodzi o rozwój kolejnej generacji Xeonów.

Jak nowe, skalowalne procesory Intel Xeon trzeciej generacji wpisują się w procesy przetwarzania na brzegu sieci?

Temat przetwarzania brzegowego jest dziś bardzo istotny. Jeszcze niedawno wielkie data centers tworzone w dwóch, trzech lokalizacjach na świecie miały przetwarzać wszystkie dane swoich klientów. Jednak wraz ze wzrostem wolumenów danych pojawił się element opóźnienia, który dla wielu rozwiązań i procesów jest krytyczny. Dlatego dostawcy zaczęli budować centra danych bliżej klientów, chodziło o to, by znajdywały się najbliżej miejsc, gdzie dane są wykorzystywane. Kolejny krok w kierunku szybszego przetwarzania danych to edge computing. Liczba danych wykładniczo rośnie i bez rozwiązań, które analizują je na brzegu sieci "zatkałyby" data center. Rozwiązanie brzegowe zbiera dane z różnych miejsc i urządzeń: access pointów, mniejszych serwerów, kamer, czujników IoT i zanim wyśle je do data center, część informacji przetwarza na miejscu po to, by po ich przeanalizowaniu, przesłać tylko najistotniejsze dane. Edge computing łączy się oczywiście z Xeonami. Mamy różne modele procesorów, są to dedykowane rozwiązania do data center, gdzie element mocy jest krytyczny, ale także rozwiązania dostosowane właśnie do przetwarzania na brzegu, pozwalające na wstępną obróbkę danych, wyciągnięcie pierwszych wniosków i wysłanie do data center danych w mniejszej ilości. Koncepcja przetwarzania brzegowego ma pomóc nie tylko w zmniejszeniu ilość przesyłanych danych, ale także zwiększyć szybkość reakcji zbliżając ją do czasu rzeczywistego. Tu dobrym przykładem są pojazdy autonomiczne. Firmy, które pracują nad ich rozwojem już od dawna mówią o tym, że przy trasach głównego ruchu w różnych miejscach powinny znajdować się, nazwijmy to mini data centers, które będą przetwarzać dane po to, by systemy autonomiczne były w stanie reagować z możliwie najmniejszym opóźnieniem.

Z oficjalnych informacji wynika, że Intel Xeon Scalable 3-ciej generacji to jedyne procesory serwerowe dla centrów danych z wbudowaną sztuczną inteligencją i zaawansowanymi funkcjami bezpieczeństwa, które rozwiązują problemy związane z ochroną danych. Jak dokładnie wygląda działanie sztucznej inteligencji w przypadku procesorów Intela?

Mamy wbudowane w Xeony oraz w niektóre inne modele procesorów mechanizmy, które przyspieszają przetwarzanie danych związanych ze sztuczną inteligencją zwiększając efektywność deep learning. Rozwiązanie

OpenVINO™ optymalizuje procesy głębokiego uczenia się, tak by można było wydajnie i efektywnie pracować na Xeonach bez potrzeby budowania oddzielnych infrastruktur. Można tu przytoczyć polski przypadek tego zastosowania. Nasz partner, firma byteLAKE, wdrożyła w fabryce papieru rozwiązanie monitorujące całą linię produkcyjną, w celu nadzorowania ciągłości produkcji. Algorytmy AI analizują tam obraz z kamer i czujników IoT, by wychwycić wszelkie nieprawidłowości. Cały ten system został oparty na rozwiązaniach Xeon-owych i na

OpenVINO™

Jak można by podsumować z Państwa punktu widzenia zmiany na rynku IT, które nastąpiły w ostatnim, wyjątkowym roku?

Zmiany można zaobserwować przede wszystkim w trzech obszarach, w których działamy, takich jak końcowe rozwiązania klienckie, rozwiązania data center i rozwiązania do przesyłu danych. W obszarze rozwiązań klienckich widzimy dynamiczny wzrost zapotrzebowania na komputery, napędzany przez wszechobecną pracę zdalną. Szacujemy, że w tym roku liczba sprzedanych na świecie jednostek będzie większa niż w roku 2012, kiedy to ich sprzedaż osiągnęła najwyższą wartość - 350 mln sztuk. I trend ten zapewne się utrzyma. Wszyscy dostrzegamy też jak ważna jest wydajność rozwiązania, z którego korzystamy, co z kolei pociąga za sobą zwiększające się zapotrzebowanie na przetwarzanie danych. Oferujemy karty sieciowe, które mają 100 gigabitów przepustowości i pracujemy nad kolejnymi ich generacjami. Zacieśniamy też współpracę z wieloma dostawcami rozwiązań 5G, których infrastruktura wykorzystuje technologię Intela, zarówno Xeony jak i rozwiązania sieciowe. Jak widać po kierunku zmian, w którym podażą rynek, zapotrzebowanie na nasze technologie jest duże i będzie nadal rosło.


TOP 200