Coraz łatwiejsze migracje

Przykładem tych akcji może być propozycja ustawienia czy przebudowania indeksu dla danej tabeli lub propozycja zmiany jakiegoś parametru. Baza danych nie zrobi tego za człowieka, ale zaproponuje rozwiązania do wyboru, które administrator zatwierdzi lub skoryguje.

Archiwizacja danych

Aplikacja pracująca przez wiele lat, w czasie swojej eksploatacji gromadzi bardzo dużo danych, przy czym wiele z nich jest zapisywanych wielokrotnie. Ze względu na regulacje prawne, część tych informacji musi być przechowywana przez wiele lat, chociaż codzienna praca aplikacji nie wiąże się z ich przetwarzaniem. Rozwiązaniem, które usprawni pracę produkcyjnej bazy dla takiego systemu, jest archiwizacja, czyli wyniesienie części danych poza bazę w taki sposób, by szybko mogły być pozyskane - najlepiej online. Rozwiązania tej klasy są już dostępne w wielu bazach oraz przy rozwiązaniach zarządzania plikami, przy czym niektórzy producenci oferują technologię wyniesienia danych na taśmy. Jest to dobra metoda, ale posiada wadę, w postaci długiego czasu odzyskiwania takich informacji. Gdy organizacja ze względów prawnych musi dostarczyć dane bardzo szybko (na przykład w ciągu 24 godzin), zestaw bibliotek taśmowych może okazać się zbyt wolny. Obecnie niewiele firm wdraża rozwiązania archiwizacji danych, główną branżą, która odnosi największe korzyści z tej technologii, jest telekomunikacja.

Lepsza analityka, nowe algorytmy

Tradycyjne rozwiązanie business intelligence zakłada pozyskiwanie dużej ilości danych, które następnie są przetwarzane w środowisku serwera aplikacyjnego, co zwiększa obciążenie sieci i serwera. W ten sposób trudno wybrać reprezentatywną próbkę danych, trudno zbadać np. wszystkie aspekty aktywności klienta. Znacznie szybsze i dokładniejsze są analizy, gdy rozwiązanie pracuje wewnątrz bazy, na kompletnych danych.

Coraz częściej pojawiają się rozwiązania, które łączą tradycyjny SQL z nowoczesnym algorytmem Map Reduce. Algorytm ten umożliwia zrównoleglenie prac i sprawne obliczenie zadań, które są trudne do zrealizowania w modelu SQL, na przykład obliczeń szeregów czasowych z użyciem średniej kroczącej. W przypadku analiz finansowych jest to na tyle ważne zadanie, że firma Vertigo rozszerzyła SQL właśnie o funkcje związane z obliczeniami na podstawie średniej kroczącej. Map Reduce bardzo usprawnia takie obliczenia.

Algorytm Map Reduce składa się z trzech ważnych kroków - przygotowania danych, przypisania danych do serwerów (mapowanie) i równoległych obliczeń cząstkowych, z których powstaje końcowy wynik. Map Reduce, dzięki masowemu zrównolegleniu i przypisaniu części zadań do serwerów, bardzo dobrze sprawdza się przy masowych obliczeniach oraz analizie bardzo dużych ilości danych z różnych źródeł, jest to także algorytm, w którym można wprowadzić odporność na awarie.

Wprowadzenie Map Reduce jest dość trudne, gdyż trudno wprowadza się rozwiązanie zintegrowane, wykorzystujące jednocześnie oba modele - tradycyjny i nowy. Rozwiązania firmy Oracle dominują na tym rynku, ale wymagają dwóch systemów. Z kolei Netezza osadza takie analityki w swoich hurtowniach, ale nie zawsze będzie to najsprawniejsze rozwiązanie.


TOP 200