Hadoop 2.0 – wady i zalety

Nie oznacza to, że Hadoop 2.0 jest złym rozwiązaniem. Zawsze przecież trzeba się liczyć z tym, że przy projektowaniu aplikacji trzeba sięgnąć po narzędzie programowania operujące na niższym poziomie, jeśli oprogramowanie ma pracować wydajnie i efektywnie. Podobnie ma się sprawa z platformą Hadoop 2.0.

W przypadku projektowania tradycyjnych aplikacji analitycznych, deweloper musi często sięgać po narzędzie typu DI (Data Integration), data warehousing czy BI (Business Intelligence). Platforma Hadoop (w tym Hadoop 2.0) oferują również narzędzia pozwalające manipulować danymi i budować aplikacje Big Data. Są to np. narzędzia wykonujące takie zadania, jak: HDFS2 to YARN to Hbase to BI. W środowiskach Hadoop dane są często przekształcane z jednej postaci w drugą i przenoszone z jednego miejsca do drugiego. Użytkownik musi tu przebrnąć niekiedy przez kilka warstw, aby dostać się do interesujących go informacji. Potrzebna tu jest więc dogłębna wiedza w zakresie programowania i znajomość rzeczy. Know-how jest w tym środowisku programowania w cenie.

Zobacz również:

  • Efekt synergii zmienia zasady pracy z danymi
  • IDC CIO Summit – potencjał drzemiący w algorytmach

Dlatego też, w praktyce mamy często do czynienia z przemęczonymi programistami i sfrustrowanymi menedżerami starającymi się zapanować –nierzadko bez powodzenia - nad takim środowiskiem obliczeniowym. W świecie takim dobrze czują się tylko profesjonaliści, którzy od lat zajmują się tą tematyką i znają od podszewki takie technologie i aplikacje, jak Python, MapReduce, JSON czy Hive. Reszta nie wie nigdy do końca, o co w tym wszystkim chodzi.

Biznesmeni nie chcą zaprzątać sobie głowy takimi terminami, jak YARN, Hive, Spark. Chcą mieć po prostu dostęp do interesujących ich informacji, a nie prosić za każdym razem informatyka, aby wydobył je z olbrzymiej bazy danych. Ważne jest również to, aby czas oczekiwania na dane skrócić do minimum, gdyż w biznesie obowiązuje znane od dawna powiedzenie, że czas to pieniądz.

Wniosek jest taki, że Hadoop 2.0 pozostaje dalej platformą, którą opanować mogą wyłącznie programiści – i to raczej doświadczeni – a nie przeciętny informatyk, nie mówiąc już o zwykłym użytkowniku. To tak, jak w świecie, w którym użytkownik nie interesuje się np. tym, jaki procesor obsługuje jego komputer i jaką posiada pamięć Level 1, ale tym, jak szybko obsługuje arkusz kalkulacyjny.

Hadoop może ostatecznie odnieść sukces, ale dopiero za kilka lat, wtedy gdy platforma okrzepnie i pojawią się rozwiązania zaprojektowane z myślą o przeciętnym użytkowniku aplikacji Big Data.


TOP 200