Specjaliści od Big Data pilnie poszukiwani

Zewsząd słychać głosy, że Big Data to ogromne korzyści dla firm. Jednak bez wykwalifikowanej kadry, o którą bardzo trudno na rynku pracy, mogą pozostać tylko teorią. Sytuacja zapewne poprawi się za kilka lat, jednak już teraz można jakoś poradzić sobie z tym wyzwaniem.

Niedobór rzadkich umiejętności z reguły prowadzi do tego, że dani specjaliści dyktują warunki zatrudnienia, przede wszystkim oczekują wysokiego wynagrodzenia. Profesjonaliści z kompetencjami w zakresie analityki Big Data mogą liczyć na bardzo wysokie pensje. Trudno w to uwierzyć, ale absolwenci programów uniwersyteckich kształcących w Stanach Zjednoczonych w tej tematyce otrzymują propozycje pracy z sześciocyfrowym uposażeniem. Często te osoby są zatrudniane jako naukowcy (Data Scientist), a do ich zadań należy wdrażanie różnego poziomu metod statystycznych, wizualizacji danych, programowania, eksploracji danych (data mining) oraz inżynierii baz danych w celu rozwiązywania złożonych problemów z danymi. Pracodawcy mogą albo zacisnąć zęby i wysupłać dodatkowe fundusze na zatrudnienie speców od Big Data, albo poszukać kreatywnych sposobów, jako poradzić sobie z tym problemem.

Wykształcić własnych fachowców

Jeśli na rynku brak fachowców, można zainwestować we własnych pracowników. Za oceanem specjalistyczne programy akademickie stają się coraz popularniejsze. Z analityki danych i Big Data można szkolić się m.in. na uniwersytetach w Północnej Karolinie, San Franscico, Indianie czy Nowym Jorku. Również polskie uczelnie są coraz bardziej aktywne i organizują kursy dotyczące tematyki nierelacyjnych baz danych czy analityki dużych zbiorów danych. Wiedzę w zakresie Big Data można rozszerzać, m.in. na Politechnice Warszawskiej, Uniwersytecie Wrocławskim czy Uniwersytecie Szczecińskim.

Zobacz również:

  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Kwanty od OVHCloud dla edukacji
  • Inteligentna chmura danych

W Polsce również kilka firm szkoleniowych prowadzi już kursy dotyczące problematyki związanej z Big Data. Są to m.in. JavaTech, NobleProg czy Altkom Akademia. W ramach tych szkoleń można zdobywać umiejętności z zakresu instalacji i konfiguracji Hadoopa, modelu MapReduce czy budowania hurtowni danych.

Poza tym dostawcy oferujący produkty Big Data, jako choćby IMB czy Teradata, występują jako partnerzy wyższych uczelni i wspólnie pracują nad programami edukacyjnymi z zakresu analityki danych. Teradata University Network (www.teradata.com/academic-programs) to portal internetowy, który daje dostęp do badań z zakresu analityki danych, oprogramowania i innych materiałów szkoleniowych przeznaczonych dla wykładowców i studentów. Z kolei IBM współpracuje z ponad 1000 wyższych uczelni, dając w ramach programów akademickich dostęp do oprogramowania, zbiorów danych i naukowców od analityki danych.

Zespół naukowy

Wiele firm potrzebuje specjalistów od Big Data już teraz i nie może czekać, aż uczelnie wykształcą większą liczbę ekspertów. Na szczęście akademickie programy to jedyny sposób, żeby uzupełnić braki wykwalifikowanej kadry od analityki danych. Jednym z rozwiązań problemu braku specjalistów od Big Data jest stworzenie zespołu osób o różnych kwalifikacjach, które wspólnie będą w stanie zajmować się zadaniami związanymi z analizą danych. Do takiego zespołu należy włączyć osoby odpowiedzialne za tworzenie algorytmów, menedżerów analiz, którzy będą dostarczyli wskazówek naukowcom oraz menedżera projektu, który będzie odpowiedzialny za harmonogram prac, koszty oraz rezultaty widziane z szerszej perspektywy biznesowej. Takie podejście stosuje się, np. w firmie Opera Solutions. Jest to dostawca usług z zakresu analityki dużych zbiorów danych. Kilka lat temu firma zwróciła na siebie uwagę po tym, jak wygrała organizowany przez Netflix, dostawcę filmów online, konkurs na udoskonalenie algorytmu rekomendacji filmów.

Technologia przychodzi z pomocą

Oprócz rekrutacji absolwentów wyższych uczelni czy tworzenia własnych wewnętrznych programów szkoleń, firmy mogą liczyć również na pomoc ze strony producentów oprogramowania w zakresie uzupełnienia kompetencji w obszarze Big Data. Zamiast szukać wysoko specjalizowanych pracowników, można zastąpić ich platformą do tworzenia aplikacji Big Data. Takie narzędzia (np. Continuuity Reactor, Hadapt Adaptive Analytical Platform czy Hortonworks Data Platform) tworzą warstwę abstrakcji i interfejs programistyczny, dzięki któremu można stosunkowo łatwo pisać aplikacje Big Data bez dobrej znajomości Hadoopa, popularnej platformy, wykorzystywanej do przetwarzania dużych zbiorów danych. Wymienione narzędzia pozwalają uniknąć konieczności “grzebania” w złożonych mechanizmach Hadoopa, co upraszcza prace programistyczne, a firmom przynosi oszczędności na kosztach zatrudnienia.

Są również dostawcy, którzy tworzą w swoich bazach danych mechanizmy pozwalające na dostęp do klastrów Hadoopa działających w chmurach publicznych w sposób zbliżony do zapytań SQL. Jest to dość częsty przypadek wykorzystania przez firmy platformy Hadoop. Takie narzędzia do wirtualizacji danych są dostępne dla większości baz danych i potrafią również dostarczać wyniki zapytań w popularnych formatach. W rzeczywistości narzędzia do wirtualizacji danych potrafią zoptymalizować komunikację zarówno pomiędzy publicznymi klastrami Hadoopa, jak również między klastrem publicznym i lokalnym.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200