Jak uwolnić potencjał Big Data dzięki rozwiązaniom HPC?


Big Data zyskuje coraz bardziej strategiczne znaczenie dla wielu organizacji. Konwencjonalne technologie nie radzą sobie z rozwiązywaniem tego typu problemów. Tylko rozwiązania superkomputerowe, HPC (High-Performance Computing) mają odpowiednią moc, skalowalność i szybkość pozwalającą ulokować Big Data w samym centrum krytycznych procesów biznesowych i strategicznego podejmowania decyzji.

„Czas to pieniądz” to często wykorzystywana i sprawdzona zasada biznesowa. Sprawdza się również w przypadku Big Data i HPC. Właśnie dlatego wiele firm i agencji rządowych decyduje się na wykorzystanie rozwiązań superkomputerowych do zarządzania wielkimi zbiorami danych, czyli tym, co bardzo szybko stało się kluczowe dla bieżących działań podejmowanych przez wiele organizacji.

Konwencjonalne podejścia do Big Data mogą być zbyt wolne, żeby dostarczać na czas odpowiedzi, a nie ma sensu inwestować jakichkolwiek środków finansowych i podejmować wysiłków, jeśli wyniki miałyby zostać udostępnione zbyt późno, aby można je było wykorzystać.

W wielu branżach HPC umożliwia organizacjom z sektora prywatnego i publicznego prowadzenie zaawansowanych, szczegółowych analiz na wielkich zbiorach danych w czasie liczonym w sekundach, podczas gdy konwencjonalne rozwiązania potrzebowałyby na to godzin lub dni. To przyspieszenie przetwarzania Big Data oznacza, że dzięki HPC, analitycy i menedżerowie nie muszą wyczekiwać długich godzin na odpowiedzi na kolejne pytania, ale mogą eksplorować wielkie zbiory danych interaktywnie, oceniając w ciągu kilku sekund, które podejście czy strategia będzie najbardziej korzystna z punktu widzenia założonych celów biznesowych.

Obsługa Big Data w czasie rzeczywistym

Kiedy przedsiębiorstwa muszą zmierzyć się z danymi przepływającymi z bardzo dużą szybkością, systemy HPC wyposażone w odpowiednie konfiguracje elementów sieciowych, pamięci i procesorów pozwalają sprostać nawet największym wyzwaniom. Wykrywanie nadużyć w czasie rzeczywistym i przedstawianie spersonalizowanych ofert ubezpieczeniowych budowanych w trakcie trwania rozmowy telefonicznej – to tylko dwa przykłady, gdzie przetwarzanie Big Data w systemach HPC przekłada się na rozwiązania zapewniające przewagę konkurencyjną na rynku.

Jednak nie tylko złożone aplikacje działające w czasie rzeczywistym napędzają zainteresowanie HPC. Prowadzenie skomplikowanych symulacji molekularnych czy inżynieryjnych w ciągu sekund, zamiast dni, może oznaczać ogromne zwiększenie produktywności działów badawczo-rozwojowych, jednostek zajmujących się projektowaniem produktów czy zespołów inżynierskich. To zaś przekłada się na lepsze efekty w skali całego organizacyjnego łańcucha wartości.

Podobnie, sprawne przetwarzanie złożonych interakcji czy relacji w wielkich sieciach społecznych w czasie liczonym w minutach, realizowane w odpowiedzi na publikowane informacje prasowe czy premiery produktów, dla wielu firm oznacza osiągnięcie większej zwinności na rynku, a w konsekwencji możliwość odpowiadania i adaptowania się do informacji z rynku, żeby kształtować na bieżąco prowadzenie kampanii. Konwencjonalne konfiguracje Big Data – w odróżnieniu – zwykle mogą dostarczyć tylko informacji, co i jak poszło źle… po zakończeniu projektu.

HPC pozwala także docierać do miejsc, do których konwencjonalne konfiguracje Big Data w ogóle nie mają wstępu. Najbardziej złożone analizy sieci społecznych – w tym przetwarzanie grafiki – mogą być prowadzone w warunkach rzeczywistych wyłącznie przy użyciu systemów HPC. Są one zoptymalizowane do takich zadań i wyposażone w pamięć operacyjną. Umożliwiają również przetwarzanie adaptacyjne oraz przyspieszanie obliczeń dzięki układom GPU, co pozwala zmierzyć się z najbardziej skomplikowanymi wyzwaniami, których tradycyjna architektura obsłużyć nie może.

Innowacyjne poziomy wydajności

Lenovo wykorzystuje doświadczenia w HPC, które sięgają pierwszych superkomputerów stosujących x86. Obecnie ta tradycja jest reprezentowana przez najlepsze na rynku systemy HPC, stale wzbogacane o nowe, innowacyjne technologie dzięki pracom rozwojowym prowadzonym wewnątrz organizacji. Lenovo ma ogromną wiedzę w zakresie integracji i produkcji technologii obejmującej cały technologiczny łańcuch wartości, od wytwarzania półprzewodników, po integrację systemów – przy tym wszystko realizowane jest wewnętrznie właśnie przez Lenovo.

Referencje Lenovo stanowi wiele spośród największych superkomputerów na globalnej liście TOP500 HPC – to m.in. SuperMUC oraz SuperMUC Phase 2 w Leibniz Computing Centre w Niemczech, rozwiązania w Max-Planck-Society Computing and Data Facility w Monachium oraz w chińskim Alibaba Group.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.