Zmiany w infrastrukturze

Radykalny wzrost ilości danych jest faktem. Firmy reagowały na to zjawisko, rozbudowując systemy składowania. Teraz wyzwaniem staje się integracja zasobów.

Trend związany z silnym wzrostem ilości danych przetwarzanych w organizacjach nie omija polskich firm. Praktycznie każda z nich przechowuje coraz więcej informacji i niezbędny staje się rozwój infrastruktury składowania danych. Początkowo w małych firmach stosowano powszechnie wbudowany storage w serwerach, nieco później standardem stały się macierze RAID.

Obecnie dzięki spadkowi kosztów przechowywania danych w macierzach dyskowych i powszechnej dostępności iSCSI nawet niewielka firma z sektora MSP może sobie pozwolić na środowisko z centralnym wysoko dostępnym składowaniem danych. Niektóre firmy stosują klastrowe serwery plików udostępniające zasoby za pomocą iSCSI, CIFS i NFS, ale standardem są macierze dyskowe wykonane z założeniami wysokiej dostępności. Mają one zdublowane kontrolery, zasilacze, porty wejścia/wyjścia i magistralę. Najważniejsze zmiany w przyszłości będą dotyczyć nie tyle samych macierzy dyskowych, ile zagadnień związanych z integracją zasobów.

Danych wciąż przybywa

Wzrost ilości składowanych danych obejmuje praktycznie wszystkie branże. Odpowiedź firmy zależy od tego, jak planowała ona zakupy i skalowanie zasobów. Do organizacji, które gromadzą bardzo dużo danych, należą na przykład szpitale wyposażone w cyfrową ciemnię.

Marcin Lenarczyk, kierownik Działu Informatyki w Wojewódzkim Szpitalu Specjalistycznym we Wrocławiu, mówi: "Przechowujemy wielkie ilości danych, zbiór wyników badań radiologicznych zajmuje ponad 20 TB. Większość starszych danych przenieśliśmy na taśmy, na bieżąco tworzymy nasze archiwa. Macierze były kupowane nieco na wyrost, więc nie mamy problemów ze sprzętem, ale niedługo problemem stanie się archiwum długoterminowe. Nad tą sytuacją trzeba się będzie pochylić".

Nowe źródła i metody analizy informacji

Od strony klienta integracja zasobów oraz ich przetwarzanie nie są w ogóle istotne ani widoczne. Klient nie szuka rozwiązań, on chce załatwić swoją sprawę.

Marcin Grygielski, dyrektor regionalny firmy InterActive Intelligence

Samo magazynowanie informacji nie przynosi bezpośredniego przychodu firmie, która nie świadczy usług z tym związanych. Jeśli jednak taka firma zaprzęgnie do pracy zaawansowaną analitykę, może na tym zarobić.

Zauważa to Przemysław Szuder, BMO Lead Poland w firmie Microsoft Poland: "Ważnym trendem w biznesie jest analiza dużych ilości danych. Dane nas zalewają, musimy wiedzieć, jak je integrować, jak wyciągać wnioski z użyciem analityki. Nasi klienci w USA już przeskoczyli tę barierę i zaczynają sprzedawać dane dotyczące zachowań konsumenckich pochodzące z analizy wielkich populacji".

Kluczem jest wyciąganie wniosków na podstawie zgromadzonych informacji, a nadal zagadnienie to jest trudne w realizacji i nie zawsze przynosi oczekiwane efekty. Problemy w tej dziedzinie opisuje Piotr Podleśny, prezes firmy Atena: "Różne firmy potrafią wyciągnąć różne wnioski z tych samych danych. Gdy na podstawie bazy danych wielkie firmy konsultingowe przeprowadziły analizy, wnioskowały, że polski rynek ubezpieczeń będzie się rozwijał podobnie do angielskiego, czyli w modelu direct. Inne analizy wskazywały na model zbliżony do niemieckiego. Wszystkie wspomniane firmy konsultingowe bazowały na tym samym zbiorze informacji".

Powszechnie znanym zagadnieniem, spotykanym w wielu przedsiębiorstwach, jest napływ informacji pochodzących z sieci społecznościowych. Ilość informacji przypomina powódź, zatem firmy staną przed poważnym wyzwaniem związanym z ich organizacją i wnioskowaniem na podstawie zebranych danych. Aby móc zarobić na tej informacji, niezbędne są narzędzia, ale niekiedy bardziej opłacalny będzie model usługowy. Piotr Podleśny uważa, że "są już firmy próbujące wykryć trendy i zachowania konsumenckie, na których można zarobić. W najbliższym czasie można oczekiwać wysypu firm specjalizujących się w analizie tego, co płynie z internetu. Na razie wnioski są nieco frustrujące i nie udaje się nam w pełni przewidzieć trendów".

Mniej ludzi, więcej danych

Chmura może być źródłem innowacji jedynie dla tych, którzy zaczynają biznes od zera. Nie ma innowacji w chmurze, jeśli mówimy o korzystaniu z rozwiązań standardowych, takich jak Office 365.

Bartłomiej Kahn,dyrektor IT Wydawnictwa Wiedza i Praktyka

Pomimo radykalnego wzrostu ilości przechowywanych danych, nie można oczekiwać wzrostu nakładów związanych z ich obsługą. Na jednego administratora będzie przypadać coraz więcej gigabajtów danych, więcej macierzy i serwerów. Niezbędny będzie zatem rozwój narzędzi automatyzujących typowe zadania i wspomagających administratora w codziennych obowiązkach. Takie narzędzia już powstają, wywodząc się z koncepcji ułatwienia pracy informatykom obsługującym firmy z sektora MSP. Rozwiązaniem, które radykalnie uprościło zarządzanie serwerami usługowymi, jest wirtualizacja. Następnym krokiem jest rozwój i wdrożenia narzędzi, które umożliwią zarządzanie zasobami w całości: od przestrzeni dyskowej i kopii bezpieczeństwa, przez sieć połączeń, serwery w wirtualizowanym środowisku, aż do puli aplikacji dostępnej w repozytorium i wdrażanej razem z prekonfigurowanymi bazami oraz połączeniami sieciowymi.

Integracja IT z biznesem oraz usprawnienie pracy działu informatyki nie jest jednak zadaniem, które można przeprowadzić od razu i w każdych warunkach. Piotr Zieliński, zastępca dyrektora Departamentu Informatyki w TUiR Allianz Polska SA, stwierdza: "Integracja wymaga wysokiej determinacji po stronie biznesu. Żeby ją przeprowadzić, trzeba mieć uporządkowane procesy oraz ściśle określonych właścicieli informacji".

Dla firm integracja nie jest celem samym w sobie. Dyrektor regionalny Interactive Intelligence Marcin Grygielski ocenia: "Od strony klienta integracja zasobów oraz ich przetwarzanie nie są istotne ani widoczne. Klient nie szuka rozwiązań, on chce załatwić swoją sprawę".

A może outsourcing?

W przypadku typowych przedsiębiorstw, które przetwarzają dane komercyjne, ale niechronione jako dane osobowe czy medyczne, kupno usługi przechowywania informacji lub długoterminowego składowania danych (z elektronicznym archiwum włącznie) jest decyzją biznesową. W przypadku branży zdrowotnej problem jest znacznie poważniejszy, gdyż wyniki badań są informacją szczególnie chronioną, zasady jej przechowywania i przetwarzania są regulowane przez prawo. Obecnie istnieje możliwość wykorzystania usługi zewnętrznej spełniającej te wymagania, niemniej nadal jest ona niepopularna, a zatem dość kosztowna.

Marcin Lenarczyk uważa, że taka sytuacja nie będzie trwać wiecznie: "Chętnie dane medyczne wysłałbym na zewnątrz. Wolałbym kupować usługi archiwizowania danych od zewnętrznej firmy, niż rozbudowywać swoje macierze dyskowe i dbać o ich bezpieczeństwo. Dopiero od kwietniowej ustawy możemy przekazywać takie dane poza jednostkę. Te usługi w końcu zaczną być dostrzegane przez partnerów, którzy dysponują możliwością ich świadczenia".

Tymczasem Andrzej Osuch, dyrektor pionu IT Grupy LuxMed, uważa, że jest to nieopłacalne: "Mamy bardzo duże ilości danych pochodzących m.in. z diagnostyki obrazowej i myśleliśmy już o outsourcingu. Raz na pół roku robimy przegląd kosztowy dostępnych technologii i usług, ale obecnie korzystanie z nich się po prostu nie opłaca. Lepiej, bezpieczniej jest trzymać te dane u siebie, nawet z potężnymi archiwami po kilkadziesiąt terabajtów".

Organizacje korzystające z usług cloud computing lub hostowania aplikacji u dostawcy nie muszą inwestować we własne zasoby składowania danych. Ponieważ zasoby udostępniane przez usługodawcę są skalowalne, jedynym problemem może być koszt świadczenia usługi. Rozważając outsourcing, należy go zestawić z inwestycjami, które byłyby konieczne w przypadku składowania danych u siebie. W przypadku małych i średnich firm próg związany z koniecznymi inwestycjami we własną infrastrukturę jest na tyle wysoki, że outsourcing w tym zakresie może być korzystną alternatywą.

Sporo firm, dostrzegając korzyści finansowe z wykorzystania chmury, obawia się, że taka oszczędność może ograniczać innowacyjność w biznesie. Takie zastrzeżenia zgłasza Bartłomiej Kahn, dyrektor IT Wydawnictwa Wiedza i Praktyka: "Chmura może być źródłem innowacji jedynie dla tych, którzy zaczynają biznes od zera. Nie ma innowacji w chmurze, jeśli mówimy o korzystaniu z rozwiązań standardowych, takich jak Office 365". Przemysław Szuder z Microsoftu nie widzi takich niebezpieczeństw. Jego zdaniem, cloud computing to nie tylko gotowe rozwiązania, ale także miejsce do tworzenia nowych: "Pozwala na to platforma Azure, która jest właśnie miejscem do pisania własnych aplikacji".

SAN, NAS, a może oba standardy?

W dobie standardowo wdrażanej wirtualizacji macierze dyskowe stają się niezbędnym wyposażeniem, przy czym dominuje storage blokowy (sieć SAN). Najpopularniejszym protokołem w dużych firmach jest FibreChannel, wybierany ze względu na niezawodność, przepustowość i renomę, jaką ten standard zdobył w ciągu ostatnich lat. Niemniej w niektórych firmach w nowych wdrożeniach pojawia się iSCSI oraz FCoE. Przy zastosowaniu łączy Ethernet o przepustowości 10 Gbit/s i kart konwergentnych nawet iSCSI staje się bardzo sensownym konkurentem do starego, ale drogiego FibreChannel.

W przypadku środowisk wirtualizowanych pojawia się także możliwość wykorzystania zasobów udostępnianych za pomocą protokołu NFS lub CIFS do maszyn wirtualnych. W ten sposób przeprowadza się także migracje baz danych do wirtualizowanego środowiska. Jest to o tyle ważne, że poprawia elastyczność firmy i zwiększa skalowalność.

Istotny trend w rozwoju składowania danych jest związany z integracją obsługi modeli plikowych (NAS) i blokowych (SAN) w jednym urządzeniu. Do wielu firm, które zaplanowały wymianę części sprzętu, takie rozwiązanie trafi już w 2012 roku.

Nowość zapuka do drzwi serwerowni

Razem z nieuniknioną modernizacją sprzętu w znaczącej części firm pojawią się urządzenia, które obsługują nowoczesne opcje składowania danych, takie jak thin provisioning oraz deduplikacja. Chociaż opcja deklarowania wirtualnego zasobu o większej pojemności istnieje w macierzach od kilku lat, nadal jest wykorzystywana rzadko. Okazuje się ona jednak bardzo pomocna, szczególnie w środowisku wirtualizowanym.

Drugi trend, który daje się zauważyć, to uproszczenie obsługi. Połączenie zaawansowanych możliwości dzisiejszych macierzy z prostą obsługą sprawi, że firmy już w przyszłym roku zaczną korzystać z niektórych opcji. Narzędziem, które pomoże przy tworzeniu archiwów, jest deduplikacja. Umożliwi ona przechowanie danych po usunięciu nadmiarowej informacji. Jeśli tylko działy IT w firmach będą wiedziały, jak wykorzystać dostępne narzędzia, poradzą sobie nawet z tak dużą ilością informacji, jaką wskazują wizjonerzy.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200