Superkomputery pozwalają uwalniać pełen potencjał Big Data


W miarę jak Big Data zyskuje dla organizacji coraz bardziej strategiczne znaczenie, konwencjonalne technologie nie są już w stanie zaspokajać związanych z tym potrzeb. Jedynie superkomputerowe systemy HPC (High-Performance Computing) mają odpowiednią moc, skalę i szybkość działania, żeby uczynić z Big Data fundament krytycznych procesów biznesowych i strategicznego podejmowania decyzji.

Czas to pieniądz. Ta sprawdzona mantra biznesowa to jednocześnie powód, dla którego wiele firm i agencji rządowych decyduje się na wykorzystanie systemów HPC do zarządzania potrzebami Big Data, czyli obszarem, który nabiera dla wielu organizacji kluczowego znaczenia w prowadzeniu bieżącego biznesu.

Konwencjonalne podejścia komputerowe do Big Data mogą być zbyt wolne, żeby dostarczać odpowiedzi na czas. Nie ma sensu inwestować środki finansowe i wysiłek w Big Data, jeśli rezultaty pojawią się na tyle późno, że nie będą użyteczne.

W wielu branżach HPC oferuje organizacjom z sektora prywatnego i publicznego zaawansowaną, pogłębioną analizę obejmującą całe zbiory Big Data w czasie liczonym w sekundach. W przypadku konwencjonalnych konfiguracji na wyniki trzeba byłoby czekać wiele godzin albo nawet dni. Ta szybkość przetwarzania oznacza, że dzięki HPC, analitycy i kadra zarządzająca nie muszą oczekiwać godzinami na możliwość zadania kolejnego zapytania, ale mogą eksplorować wielkie zbiory danych interaktywnie, w ciągu kilku sekund, porównując podejścia czy strategie, które będą najbardziej przydatne z punktu widzenia określonych celów biznesowych.

Obsługa Big Data w czasie rzeczywistym

Kiedy przedsiębiorstwa zmagają się z bardzo dużymi szybkościami danych, systemy HPC wyposażone w konfiguracje sieciowe, pamięci oraz procesory, które nie mają sobie równych na rynku, pozwalają skutecznie działać nawet w najtrudniejszych warunkach. Wykrywanie przestępstw finansowych w czasie rzeczywistym czy spersonalizowane ofertowanie klientów firm ubezpieczeniowych przez telefon to tylko dwa przykłady, gdzie superkomputerowe przetwarzanie zbiorów Big Data pozwala stworzyć rozwiązania zapewniające przewagę konkurencyjną na rynku.

Przy tym nie tylko złożone aplikacje działające w czasie rzeczywistym są powodem zainteresowania firm systemami HPC. Przeprowadzenie zaawansowanych symulacji molekularnych czy inżynieryjnych w kilka, kilkanaście czy nawet kilkadziesiąt sekund, zamiast wielu dni, przekłada się na wielokrotny wzrost produktywności działań prowadzonych w obszarze badań i rozwoju, jednostek odpowiedzialnych za projektowanie produktów czy zespołów inżynierów. Efekty są odczuwalne w skali całego organizacyjnego łańcucha wartości.

Podobnie, błyskawiczne przetwarzanie złożonych interakcji i relacji w wielkich sieciach społecznościowych w odpowiedzi na nową kampanię marketingową czy premiery produktowe, sprawia, że przedsiębiorstwa stają się bardziej zwinne w swoich działaniach rynkowych. Są w stanie reagować oraz adaptować się do informacji spływających z rynku i odpowiednio kształtować kolejne kampanie w czasie rzeczywistym. Konwencjonalne konfiguracje Big Data zwykle mogą odpowiedzieć na pytanie ‘co’, ‘jak’ i ‘dlaczego poszło źle’ dopiero po zdarzeniu.

Systemy HPC mogą również zostać wykorzystane do zadań, do których konwencjonalne konfiguracje się nie nadają. Najbardziej zaawansowana analiza sieci społecznościowych – obejmująca przetwarzanie grafów – może być efektywnie prowadzona dla realnych zbiorów Big Data wyłącznie na systemach superkomputerowych. Są one zoptymalizowane do takich działań i wyposażone w odpowiednią ilość pamięci, mechanizmy przetwarzania adaptacyjnego oraz akceleratory GPU, dzięki czemu mogą sprostać wyzwaniom związanym ze złożoną analizą sieci społecznościowych. Konwencjonalne architektury zupełnie sobie z tym nie radzą.

Innowacje i nowe poziomy wydajności

Historia Lenovo w obszarze HPC sięga pierwszych superkomputerów wykorzystujących architekturę x86. Obecnie ta tradycja jest reprezentowana przez najlepsze na rynku systemy HPC. To potwierdzenie naszego zaangażowania w konsekwentny, prowadzony wewnętrznie rozwój technologiczny i innowacje produktowe. Jako firma, Lenovo ma głęboką wiedzę w zakresie integracji technologii oraz produkcji w skali całego łańcucha wartości IT: od wytwarzania półprzewodników, po integrację systemów. Jeszcze raz warto podkreślić: wszystko to prowadzone jest wewnętrznie.

Wiele instalacji Lenovo trafiło na listę TOP 500, na której znajdują się największe systemy superkomputerowe na świecie. Przykładem mogą być instalacje SuperMUC oraz SuperMUC Phase 2 w ośrodku Leibniz Computing Centre w Niemczech, instalacja w znajdującym się w Monachium centrum danych Max-Planck-Society czy systemy wykorzystywane przez chińską firmę Alibaba Group.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.