BigLake obsłuży jednocześnie hurtownie i jeziora danych

Google zaprezentowało w tym tygodniu testową wersję nowego silnika zarządzającego repozytoriami typu data lake (w dosłownym tłumaczenie jezioro danych - czyli miejsce, w którym gromadzone są nieprzetworzone dane w ich oryginalnym formacie). Silnik nosi nazwę BigLake.

Grafika: Jack Moreh/freerangestock.com

Silnik BigLake to typowy przykład rozwiązania typu cross-platform, czyli obsługującego różne platformy programistyczne. Dzięki niemu firmy mogą szybciej i łatwiej analizować dane znajdujące się zarówno w klasycznych hurtowniach danych, jak i w magazynach data lake. Projektując silnik, Google wykorzystało swoje doświadczenie w prowadzeniu i zarządzaniu hurtowniami danych BigQuery i rozszerzyło ich możliwości, realizując ten projekt w ramach usługi Google Cloud Storage, właśnie o obsługę magazynów data lake.

Dzięki BigLake programiści uzyskają dostęp do jednego uniwersalnego silnika pamięci masowej i możliwość wysyłania zapytań do każdego repozytorium za pośrednictwem jednego systemu i interfejsu, bez konieczności przenoszenia lub duplikowania danych. Mówiąc inaczej, BigLake pozwala firmom ujednolicić swoje hurtownie i jeziora danych, nie oglądając się na format przechowywanych w nich danych. Eliminuje też potrzebę duplikowania lub przenoszenia danych, co zawsze zabiera dużo czasu i jest pracochłonne.

Zobacz również:

  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Data mesh, data fabric oraz data cloud – co oznaczają te pojęcia?

Silnik BigLake został zaprojektowany do pracy z danymi przechowywanymi w różnych chmurach, oferując tym samym firmom możliwość ujednolicenia hurtowni danych i jezior danych w ramach jednej wielochmurowej platformy.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200