Trendy rozwoju infrastruktury do Big Data

Niezależnie od motywacji, jaka stoi za wdrożeniami Big Data, jedna rzecz jest pewna: firmy mają dzisiaj do dyspozycji wiele technologii i metod, aby gromadzić i analizować dane. Czy można jednak zaobserwować jakiś dominujący model budowy infrastruktury Big Data?

Jednym z krytycznych czynników decydujących o udanym wdrożeniu analityki Big Data jest infrastruktura, która jest w stanie sprostać nieustającemu przyrostowi danych, jak również spełnić rosnące wymagania i oczekiwania użytkowników. Wraz z rosnącymi oczekiwania dotyczącymi wyników biznesowych rośnie również zapotrzebowanie na infrastrukturę. To napędza innowacje i rozwój nowych funkcjonalności Big Data, obejmujących pamięci masowe, sieć, mechanizmy zarządzania oraz oprogramowanie. Wydaje się jednak, że większość firm wciąż nie ma infrastruktury IT dostosowanej do wymagań Big Data.

Przeprowadzona w ostatnim czasie przez Enterprise Strategy Group ankieta pokazuje, że infrastruktura wdrażana przez firmy w ramach projektów Big Data jest bardzo różnorodna. Analitycy badali firmy średniej i dużej wielkości w Ameryce Północnej, działające w różnych branżach. Pierwsza obserwacja, jaka rzuciła się w oczy, to brak jednego dominującego podejścia do infrastruktury w takich wdrożeniach. Jest to tym bardziej zaskakujące, że wielu producentów posługuje się retorykę przekonującą, że dostarczają idealne platformy do Big Data. Warto więc przeanalizować wady i zalety różnych modeli.

Zobacz również:

Raczej lokalnie, rzadziej w chmurze

Zróżnicowanie wyników badań wskazuje na kilka najważniejszych kryteriów przedstawionych na schemacie. Łącząc odpowiedzi z kilku kategorii razem okaże się, że około 70 % ankietowych twierdzi, że chce realizować analitykę danych z wykorzystaniem lokalnej infrastruktury, w porównaniu do 20%, którzy chcą zdecydować się na chmurę publiczną. Natomiast 10% planuje wdrożenie rozwiązań hybrydowych. Chmura hybrydowa umożliwia uruchamiania procesów Big Data w chmurze publicznej, chmurze prywatnej i dedykowanych serwerach w sposób zintegrowany lub też rozdzielnie. Daje to elastyczność przydatną w przypadku zmiennych wymagań wynikających z analizowania danych w czasie rzeczywistym z systemów transakcyjnych.

Przechowywanie danych lokalnie jest najczęściej konieczne ze względu na koszty, chęć zachowania kontroli lub zapewnienia zgodności z przepisami. Jednak chmura publiczna nadal rośnie ponieważ wiele firm nie chce brać na siebie ciężaru budowy własnego złożonego środowiska mającego zaspokoić nieprzewidywalne czy tylko tymczasowe potrzeby.

Warto odnotować, że zainteresowane i akceptacja dla rozwiązań chmurowych waha się znacznie w zależności od branży i aplikacji, co jest pochodną regulacji prawnych i najlepszych praktyk, ale także wynika z posiadanych przez firmę kompetencji i preferencji dotyczących zarządzania. Decyzja o tym, gdzie przechowywać dane ma także długoterminowe implikacje, ponieważ rosnąca ilość danych z czasem może znacznie utrudnić relokację. Co więcej, doświadczenie podpowiada, że analizę należy przeprowadzać jak najbliżej danych. Ta reguła ma wpływ nie tylko na pamięci masowe, ale również przyszłe opcja dla aplikacji analitycznych.

Dzieląc wyniki ankiety w nieco inny sposób, okazuje się, że niemal 40% pytanych jest zainteresowanych dedykowanymi komponentami sprzętowymi lub wstępnie zintegrowanymi rozwiązaniami, podczas gdy 60 % optuje za różnymi formami wirtualizacji lub współdzielenia infrastruktury. Pierwsza grupa uzasadnia swój wybór potrzebą zagwarantowania wydajności dla bardzo ściśle określonych zadań analitycznych.

Druga grupa kieruje się natomiast chęcią jak najlepszego wykorzystania dostępnych zasobów, dążąc do obniżenia kosztów, ale także zapewniając sobie w ten sposób większą elastyczność na wypadek, gdyby zmieniły się potrzeby.

Na rynku będziemy obserwować coraz więcej innowacji w zakresie orkiestracji i zarządzania wirtualizacją, a nawet chmurami prywatnymi obsługującymi klastry Big Data. Możliwości skalowania wszerz mają istotne zalety w porównaniu ze skalowaniem wzwyż, nawet za cenę większej złożoności zarządzania.

Ekosystem Hadoopa jest wciąż stosunkowo młody, ale nabiera rozpędu, nawet jeśli ten rodzaj platformy nie został wyraźnie oddzielony w wynikach badania ESG. Większość ludzi myśli o Hadoopie jako skalowalnym wszerz środowisku działającym na dedykowanych, standardowych serwerach x86. Jednak nawet w tym obszarze obserwuje się wciąż wiele eksperymentalnych wdrożeń, mających na celu zaspokojenie specyficznych potrzeb różnych aplikacji. Inicjatywy open source jak i komercyjne dają możliwość wdrażania zróżnicowanej infrastruktury.

Interesujące jest to, że można zaobserwować ten sam wzorzec rewolucyjnych zmian napędzany przez Big Data, z jakim mieliśmy do czynienia kilka lat temu wraz z popularyzacją wirtualizacji i chmury. Być może największa różnica polega na tym, że rosnąca liczba projektów Big Data jest inicjowana poza działami IT. Analitycy biznesowi mają tendencję do myślenia o funkcjonalnościach analitycznych, a nie o wymaganiach operacyjnych.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200