Poszukiwanie igły w stogu siana
- 26.04.2011
Nowoczesne narzędzia do obróbki dużych porcji danych umożliwiają odkrywanie prawidłowości oraz precyzyjne śledzenie działań.
logów i innych informacji zapisano w ubiegłym roku w firmach na świecie.
Analiza kluczem do informacji
Firmy zbierają bardzo wiele danych i nie zawsze potrafią wyzyskać potencjał, który tkwi w tych zbiorach. Podczas konferencji Structure Big Data 2011, Jeff Jonas, inżynier pracujący w firmie IBM, powiedział: "Trend analizy i wnioskowania na podstawie dużych zbiorów zmieni nasze pojęcie prywatności. Nadejście epoki ciągłego nadzoru jest nie tylko nieuniknione, jest to przemożna chęć, której nie mogą się oprzeć firmy i instytucje".
Termin "big data" jest związany z olbrzymimi zasobami informacji zbieranych ze strumieni generowanych przez maszyny i człowieka, przy czym informacje te mogą pochodzić z logów komputerowych zapisujących działania człowieka, zapisów transakcji finansowych, strumieni wyszukiwań w Internecie, metadanych poczty elektronicznej, zapytań kierowanych do wyszukiwarek oraz aktywności w sieciach społecznościowych.
W samym tylko ubiegłym roku powstało około 1,5 zettabajtów (1,5 mld terabajtów) takich danych, w większości były one wytworzone przez maszyny. Według Jasona Hoffmana, założyciela i głównego specjalisty firmy Joyent, zajmującej się usługami świadczonymi w modelu cloud computing, w ciągu ubiegłego roku firmy zapełniły dyski swoich macierzy porcjami takich danych, zapisując razem około 16 eksabajtów (16 mln terabajtów).
Ilość danych powstająca z magazynowanych strumieni nadal rośnie i przedsiębiorstwa pracują nad sposobami wykorzystania tych zasobów informacji w kreatywny sposób, przynoszący dodatkową wartość dla organizacji.