High Performance Computing, czyli obliczenia na wysokich obrotach

Budowanie przewagi konkurencyjnej w dobie gospodarki opartej o dane wymaga sięgania po coraz większą moc obliczeniową. A tą są w stanie zapewnić superkomputery, dokonujące dziś miliardów obliczeń na sekundę, a za kilka lat nawet bilionów. Takie jak Mare Nostrum 4 z Barcelony.

High Performance Computing będzie istnieć tak długo, jak długo świat będzie potrzebował potężnej mocy obliczeniowej. Lawinowy globalny przyrost danych i pojawienie się nowych technologii (sztuczna inteligencja!) sprawiły, że zaistniała potrzeba szybszego i skutecznego sposobu na przetwarzanie tych danych. Dlatego rynek HPC z roku na roku stabilnie rośnie i przyciąga uwagę przedsiębiorstw z wielu branż. „Zabawy” z superkomputerami to już nie domena naukowców ale sposób na rozwój biznesu. . Centra superkomputerowe otwierają się coraz bardziej na świat zewnętrzny, udostępniając swoją wydajność obliczeniową podmiotom z wielu branż. Niedawno redakcja Computerworlda, na zaproszenie Lenovo Data Center Group, miała okazję odwiedzić wraz z dziennikarzami z całej Europy Centrum Superkomputerowe w Barcelonie, bazujące na technologii dostarczonej przez Lenovo. Podczas spotkania z dziennikarzami Rick Koopman, EMEA HPC and AI Technical Leader, Lenovo Data Center Business Group tłumaczył, jak wysokowydajne obliczenia i superkomputery mogą wpływać na zmianę świata. Dzięki takim technologiom możliwe jest lepsze planowanie dystrybucji żywności na globie, walka ze zmianami klimatycznymi, ptasią grypą czy badanie aktywności sejsmograficznej. Nic dziwnego, że rynek HPC rozwija się w dynamicznym tempie.

W 2017 r., jak wskazuje firma badawcza Intersect360 Research, niemal 57 % obliczeń o wysokiej wydajności stanowiło wykorzystanie komercyjne. Państwowe ośrodki naukowo-badawcze czy różne agendy rządowe to nieco ponad 1/4 rynku HPC, a środowiska akademickie – 17,7 %.

Zobacz również:

Intersect360 Research oszacowała wydatki na technologie HPC w 2018 roku na 38 miliardów dolarów, co oznacza wzrost o 7,6% w porównaniu z rokiem 2017. Przedsiębiorstwa potrzebują coraz większej mocy obliczeniowej, więc popytu nie trzeba nawet kreować.

High Performance Computing - praktyczne zastosowania

Moc obliczeniowa wykorzystywana jest często do przeprowadzania symulacji zjawisk, z którymi mamy do czynienia na co dzień. Na przykład firma Simpson Strong-Tie, produkująca wszelkiego rodzaju złącza do drewna, wykorzystuje superkomputer do badania zachowania konstrukcji drewnianych łączonych ich produktami. Od rodzaju drewna i konstrukcji zależy, jakiego modelu łączy trzeba użyć. Dzięki HPC możliwe jest tworzenie symulacji pracującego materiału i łącza.

Producent kapsułek do prania Tide używa superkomputera do zbadania, jakiej grubości i z jakich materiałów powinna być zrobiona osłonka, by rozpuszczała się w różnych rodzajach wody i temperaturach.

Skuteczność pracy wycieraczek samochodowych można sprawdzać na wiele sposobów. Na przykład można jeździć w deszczu setki kilometrów. Albo w warunkach laboratoryjnych polewać szybę wodą. Ale można też przeprowadzić na superkomputerze symulację skuteczności zastosowania danej mieszanki gumy i sprawdzić jej skuteczność.

Supermoc superkomputerów pomału zagląda pod strzechy. I to w sensie dosłownym. Addison Snell, prezes Intersect360 Research w rozmowie z „Computerworldem” nie wykluczył, że w niedalekiej przyszłości być może HPC będzie mogło być wykorzystywane przez osoby fizyczne, które będą mogły w ten sposób planować swoje finanse czy sposób spędzania wolnego czasu. Może być to teoretycznie możliwe dzięki wykorzystaniu technologii chmurowych i odpowiednich aplikacji dostarczających interesujące nas wyniki przetwarzania.

High Performance Computing w służbie światu

O ile nie ma dziś realnych przykładów na wykorzystanie mocy superkomputerów na potrzeby indywidualnych użytkowników, są dowody na to, że superkomputery są w stanie odpowiedzieć na prawie wszystkie wyzwania współczesnego świata. Wspomniana wcześniej supermaszyna obliczeniowa z Barcelony świadczy swoje usługi również dla biznesu: badania nad farmami wiatrowymi i optymalizacja skrzydeł wiatraków, rozwój zaawansowanych systemów głębokiego uczenia się za pomocą aplikacji do usług bankowych, tworzenie systemu prognozowania burz pyłowych w celu poprawy bezpieczeństwa lotów. Od ukończenia centrum przeprowadzono tu obliczenia na potrzeby trzech tysięcy projektów.

W trakcie spotkania Rick Koopman z Lenovo Data Center Business Group przekonywał, że dzięki tej technologii możliwe jest przykładowo lepsze planowanie dystrybucji żywności na globie, walka ze zmianami klimatycznymi, ptasią grypą czy badanie aktywności sejsmograficznej. Algorytmy zaczynają odgrywać coraz większą rolę we wszystkich dziedzinach naszego życia i mogą wpływać na nasze otoczenie. Naturalnie, że rzeczy mimo wszystko odległe (badania sejsmiczne, głód na świecie – na innych kontynentach), nie przemawiają tak do wyobraźni jak to, co jest bliżej nas i z czym być może znacznie szybciej się spotkamy, niż z trzęsieniem ziemi.

Zapewne łatwiej zrozumieć przykład z Barcelony, gdzie eksperci Centrum Superkomputerowym wraz z Lenovo zbudowali i przeszkolili model uczenia maszynowego, który może poprawić dokładność badań przesiewowych chorób oczu. Dzięki wykorzystaniu HPC ten model może w ciągu trzech minut wykryć patologię siatkówki oka.

Więcej mocy

Warto zaznaczyć, że znacząco zwiększa się globalne wykorzystanie chmury HPC. Pod względem przychodów zwiększyło się w 2017 roku aż o 44%, przekraczając po raz pierwszy miliard dolarów. Co prawda, stanowiło to tylko 3,1% łącznych wydatków na HPC, ale oczekuje się, że do 2022 roku odsetek ten wzrośnie do poziomu 5%.

Wzrasta jednocześnie moc obliczeniowa. Madhu Matta, wiceprezes i dyrektor generalny HPC & AI, Lenovo Data Center Business Group przypomina, jak na przestrzeni lat zmieniały się jednostki mocy obliczeniowej superkomputerów. W 1997 roku był to teraflops (milion operacji zmiennoprzecinkowych na sekundę), w 2008 – petaflops (miliard na sekundę), a w 2021 roku prognozuje się już liczenie w exaflopsach (bilion operacji). Barceloński Mare Nostrum to 4. wersja superkomputera, wydajniejsza od poprzednika 10 razy i ponad 300 razy od wersji 1. Co dalej? Czy w zwiększaniu mocy dojdziemy do ściany? Addison Snell uspokaja – HPC będzie potrzebne za 20 i nawet za 100 lat. Mogą zmienić się technologie, ale koncepcja pozostanie.