Zoptymalizowane serwery - kolejny etap rozwoju analityki Big Data


Etymologowie żargonu IT wahają się czy nie wyrzucić "Big Data" z listy najmodniejszych haseł w branży, ale sytuacja jest dynamiczna. Menedżerowie odpowiedzialni za planowanie IT z pewnością mają świadomość, że status wielkich danych w programach biznesowych ewoluuje. Podobnie jak zachodzą zmiany w technologiach, które mają na to główny wpływ. Odrobina historii pomoże wyjaśnić, z czym aktualnie mamy do czynienia. Zwłaszcza w kontekście odpowiedzi na pytanie: dlaczego osiągnięcie pełnego ROI z Big Data zależy od dostawców takich jak Lenovo, którzy dostarczają obsługujące je platformy.

Na początku dekady oferta Big Data była postrzegana jako pewnego rodzaju rozwiązanie dla poszukiwania ich możliwego zastosowania. Spece od biznesowego IT wiedzieli, że obszerne zbiory danych generowane przez systemy informatyczne globalnych korporacji zawierały informacje o trendach oraz inne użyteczne statystyki. Zdawano sobie także sprawę, że mogłyby one rozszerzyć prowadzone analizy biznesowe, ujawniać szanse sprzedażowe oraz pomagać w wykrywaniu operacyjnych nieefektywności, a także dostarczać inne cenne danych.

Problemem było to, że standardowe w owym czasie platformy przetwarzania danych nie były w stanie poradzić sobie z obsłużeniem terabajtów danych i wyszukiwaniem przydatnych informacji. Oczywiście, nie były w stanie tego osiągnąć w ramach budżetu, który dałoby się sensownie uzasadnić. Nawet w przypadku farm serwerów trwało to zbyt długo - w chwili gdy udawało się uzyskać wartościowe informacje, w oparciu o które można podjąć jakieś działania, okazywało się, że mamy już do czynienia jedynie ze straconymi szansami biznesowymi.

Było jednak wystarczająco dużo pionierskich projektów w obszarze Big Data, realizowanych w oparciu o specjalistyczne, wysokowydajne systemy w środowiskach akademickich i naukowych. To jedyne organizacje, które miały dostęp do wysokowydajnych komputerów do przetwarzania danych i osiągania założonych efektów. Giganci internetowi, firmy takie jak Google czy Amazon, zaczęły również priorytetyzować ogromną moc obliczeniową w swoich modelach biznesowych.

Wielkie dane, wielkie zmiany...

Niemniej jednak potencjał przewag biznesowych możliwych do osiągnięcia dzięki Big Data nie przestawał fascynować biznesu. Dotyczyło to w szczególności osób zaniepokojonych stale powiększającymi się zbiorami danych, którym należało zapewnić ochronę. Koszty tych działań wzrastały, a jednocześnie wydawało się, że te dane nie zarabiają na siebie.

Branża IT także nie poddała się na polu Big Data. Uświadomiono sobie jednak, że aby zdobyć więcej klientów, należy ponownie zastanowić się nad wartością, jaką Big Data może zaproponować klientom. Jednym z wniosków było to, że Big Data były błędnie promowane jako rozwiązanie, a nie jako zasób infrastrukturalny, który zapewnia największą wartość w ramach innych obszarów, takich jak sztuczna inteligencja czy uczenie maszynowe. Po stronie przetwarzania danych, przetwarzanie in-memory oraz analityka w czasie rzeczywistym (w typie wiodącego na rynku rodzaju dostarczanego przez SAP HANA i obsługiwanego przez Lenovo) coraz częściej zapewniały dodatkowe warstwy "stosu", który pozwala zrealizować obietnicę Big Data.

Szybsza analityka, szybsze analizy

Analityka działająca w czasie rzeczywistym jest kluczem do zrozumienia sił technologicznych, które transformują "wielkie dane" w coś bardziej wartościowego: "szybkie dane". Szybkie dane to zastosowanie analityki Big Data do zbiorów danych w czasie zbliżonym do rzeczywistego lub w czasie rzeczywistym - w miarę jak są one przetwarzane - z myślą o osiągnięciu większej wartości biznesowej. W połączeniu z efektywnymi systemami Business Intelligence, szybkie dane pozwalają menedżerom szybciej otrzymywać wartościowe informacje potrzebne do podejmowania decyzji. W efekcie są oni w stanie w ten sposób zdobywać przewagę nad konkurencją.

Matt Turck, inwestor VC w FirstMark, mówi, że połączenie w czasie rzeczywistym wielkich danych, szybkich danych z analityką i Business Inteligence przyczynia się do powstania "nowego stosu". W tym modelu, technologie Big Data wykorzystywane są do obsługi podstawowych wymagań związanych z "inżynierią danych", a do wydobywania wartości wykorzystywane są sztuczna inteligencja oraz uczenie maszynowe.

Big Data dostarcza kanałów komunikacyjnych, a sztuczna inteligencja – inteligencji” - mówi Matt Turck. „Ta symbioza istniała od lat, ale jej implementacja była dostępna tylko dla pewnej liczby uprzywilejowanych organizacji”.

Ta niewielka "uprzywilejowana grupa" to wspomniane wcześniej ośrodki badań akademickich i naukowych, ale zdaniem Matta Turcka startupy i firmy z listy Fortune 1000 także będą teraz wykorzystywać ten nowy model.

I faktycznie to robią. Według prognoz IDC globalne przychody z Big Data i analityki przekroczą 150 mld USD w 2017 r. To szacunkowy wzrost o 12,4 procent w stosunku do roku 2016. Zakupy sprzętu, oprogramowania oraz usług na potrzeby analityki Big Data mają utrzymać wskaźnik CAGR na poziomie 11,9 procent do roku 2020, kiedy przychody wyniosą ponad 210 mld USD.

Serwery to motory innowacji

Przy takich poziomach inwestycji, rozwiązania do analizy Big Data, takie jak te oferowane przez firmę Lenovo i jej partnerów, muszą zapewniać ROI na dużą skalę i generować przydatne informacje, które przyniosą wymierne korzyści biznesowe. Jednak każdy kierowca jest tylko tak dobry, jak silnik, który napędza jego pojazd: im lepiej silnik jest stuningowany z myślą o konkretnym zadaniu, tym lepsze osiągi samochodu i tym lepiej kierowca może reagować na sytuację na trasie.

To wyszukany sposób na wyjaśnienie przewagi, jaką serwery Lenovo - takie jak System x3550 M5 i System x3650 M5 / ThinkSystem SR630 czy ThinkSystem SR650 – mają w obszarze Big data, analityki oraz sztucznej inteligencji oraz uczenia maszynowego.

Po pierwsze, w kategoriach czystej mocy, serwery Lenovo udowodniły swoją wyższość w testach porównawczych i innych testach praktycznych. Lista referencyjna klientów używających serwerów Lenovo potwierdza także zaufanie, jakie wiele organizacji ma do tego sprzętu - od wiodących na poszczególnych rynkach firm po dokonujące przełomowych odkryć instytuty badawcze.

Długi czas pracy bez przestojów jest równie istotny

O wyższości serwera decyduje nie tylko jego szybkość i optymalizacja obciążenia - chodzi również o niezawodność. Korzyści związane z tymi aplikacjami wiążą się również z ryzykiem. Im więcej wartości przepływa przez systemy analityczne, tym więcej można stracić, jeśli awaria systemu spowoduje przestój. Jak wyjaśnia Rod Lappin, wiceprezes ds. sprzedaży i marketingu w Lenovo Data Center Group, przestoje mogą być niewiarygodnie kosztowne, a przestoje w systemów analityki Big Data mogą okazać się najbardziej kosztowne ze wszystkich.

Oprócz mocy i niezawodności, serwery powinny być również zoptymalizowane pod kątem obciążenia, do którego są przypisane. Warunkiem uzyskania bardziej wartościowych z punktu widzenia biznesu informacji, jest zarządzanie - w czasie prowadzenia analiz - objętością, różnorodnością i prędkością. Ważne jest, że podstawowa platforma sprzętowa jest zoptymalizowana pod kątem tego zadania. Dzięki temu wydajność i efektywność CAPEX / OPEX mogą być w pełni zrealizowane.

Lenovo oferuje wsparcie dla rozwiązań wspólnie z wiodącymi dostawcami platform analitycznych Big Data - Apache, Cloudera, Hortonworks, IBM BigInsights oraz MapR - i dostarcza architektury referencyjne, dzięki którym można osiągnąć pełnię korzyści biznesowych z analityki danych. ‘Motory’ analityczne pracujące na najlepszych w swojej klasie elementach konstrukcyjnych rozwiązań od Lenovo, doskonale radzą sobie z gigantycznym zadaniem. Są w stanie poskromić analitykę Big Data i w ten sposób zapewnić korzyści każdej organizacji. Ich niezawodność pozwala także wykorzystać w najlepszy sposób cenną wiedzę ekspercką w tej rosnącej dyscyplinie IT.

Zapisz się na bezpłatny newsletter. Dowiesz się o webinarach, nowych case study oraz white paperach.