BigLake obsłuży jednocześnie hurtownie i jeziora danych
- Janusz Chustecki,
- 07.04.2022, godz. 10:06
Google zaprezentowało w tym tygodniu testową wersję nowego silnika zarządzającego repozytoriami typu data lake (w dosłownym tłumaczenie jezioro danych - czyli miejsce, w którym gromadzone są nieprzetworzone dane w ich oryginalnym formacie). Silnik nosi nazwę BigLake.
Silnik BigLake to typowy przykład rozwiązania typu cross-platform, czyli obsługującego różne platformy programistyczne. Dzięki niemu firmy mogą szybciej i łatwiej analizować dane znajdujące się zarówno w klasycznych hurtowniach danych, jak i w magazynach data lake. Projektując silnik, Google wykorzystało swoje doświadczenie w prowadzeniu i zarządzaniu hurtowniami danych BigQuery i rozszerzyło ich możliwości, realizując ten projekt w ramach usługi Google Cloud Storage, właśnie o obsługę magazynów data lake.
Dzięki BigLake programiści uzyskają dostęp do jednego uniwersalnego silnika pamięci masowej i możliwość wysyłania zapytań do każdego repozytorium za pośrednictwem jednego systemu i interfejsu, bez konieczności przenoszenia lub duplikowania danych. Mówiąc inaczej, BigLake pozwala firmom ujednolicić swoje hurtownie i jeziora danych, nie oglądając się na format przechowywanych w nich danych. Eliminuje też potrzebę duplikowania lub przenoszenia danych, co zawsze zabiera dużo czasu i jest pracochłonne.
Zobacz również:
- IDC CIO Summit – potencjał drzemiący w algorytmach
- Data mesh, data fabric oraz data cloud – co oznaczają te pojęcia?
Silnik BigLake został zaprojektowany do pracy z danymi przechowywanymi w różnych chmurach, oferując tym samym firmom możliwość ujednolicenia hurtowni danych i jezior danych w ramach jednej wielochmurowej platformy.