Rekiny w oddziale banku

Oddział PKO BP SA w Katowicach, obsługujący region śląsko-opolski, scentralizował przetwarzanie danych w ramach oddziałowego systemu Zorba 3000. Na nowo powstałe środowisko składają się dwa 6-serwerowe klastry IBM RS/6000, dwie biblioteki taśmowe i dwie maciorze dyskowe Shark, działające w dwóch niezależnych i oddalonych od siebie o 1,5 km ośrodkach przetwarzania.

Oddział PKO BP SA w Katowicach, obsługujący region śląsko-opolski, scentralizował przetwarzanie danych w ramach oddziałowego systemu Zorba 3000. Na nowo powstałe środowisko składają się dwa 6-serwerowe klastry IBM RS/6000, dwie biblioteki taśmowe i dwie maciorze dyskowe Shark, działające w dwóch niezależnych i oddalonych od siebie o 1,5 km ośrodkach przetwarzania.

Rekiny w oddziale banku

Rozwiązanie wysokiej dostępności stosowane w PKO BP SA, w Katowicach

Przed realizacją projektu przetwarzanie danych odbywało się w 50 placówkach PKO regionu śląsko-opolskiego. Każda placówka miała własny, oddziałowy system bankowy Zorba. W ramach każdego z tych systemów odrębnie odbywały się takie operacje bankowe, jak zamknięcie dnia. "Rosnąca liczba transakcji powodowała, że operacja zamknięcia dnia, w zależności od liczby kont obsługiwanych przez daną placówkę oraz wydajności pracującego w niej sprzętu, trwała od kilku do kilkunastu godzin. W przypadku, gdy przetwarzanie z jakichś powodów zostało przerwane i trzeba je było wykonać na nowo, trudno było zdążyć przed rozpoczęciem kolejnego dnia pracy" - mówi Michał Rudek, naczelnik Wydziału Informatyki PKO BP w Oddziale Regionalnym w Katowicach.

Ale nie tylko wydłużający się w czasie proces przetwarzania danych zadecydował o konieczności centralizacji. "Oddziałowe systemy Zorba nie pracowały w konfiguracjach zdublowanych. Bardzo zależało nam na podniesieniu ich dostępności" - tłumaczy Michał Rudek. Problemem było także złożone zarządzanie rozproszoną infrastrukturą. Różna była konfiguracja systemu Zorba w poszczególnych placówkach. Ogółem do każdego z 50 systemów potrzebnych było kilku administratorów pracujących w systemie zmianowym. "Projekt rozpoczęliśmy od zdefiniowania celu biznesowego, jakim była reorganizacja funkcjonowania sieci naszych placówek. Poprawa jakości eksploatacji aplikacji Zorba była zrealizowana niejako "przy okazji"" - mówi Michał Rudek.

Centralizacja na lekarstwo

Dzięki temu, że w trakcie podejmowania decyzji o docelowej architekturze systemu bank PKO BP tworzył ogólnopolską sieć, zdecydowano się na rozwiązanie scentralizowane, w którym przetwarzanie danych napływających z 200 oddziałów banku w tym regionie byłoby realizowane na serwerach działających w centrali w Katowicach.

Bank wybrał serwery i pamięci masowe IBM. Spośród kilku koncepcji (zakładających m.in. zastosowanie jednego, dużego serwera podzielonego na partycje systemowe) zdecydowano się na zakup 12 serwerów RS/6000, M80 połączonych w dwa 6-serwerowe klastry. Integralnym elementem zbudowanej konfiguracji są dwie macierze dyskowe IBM Enterprise Storage Server model F20 (znane jako Shark), z których każda oferuje 1,6 TB powierzchni dyskowej.

Zdublowana konfiguracja

"Zastosowanie niezależnych serwerów pracujących w klast-rach zamiast jednej, dużej maszyny umożliwiło nam elastyczne definiowanie scenariuszy przełączania aplikacji Zorba w razie ewentualnych awarii. Jednoczesne zastosowanie dwóch klastrów, dwóch macierzy i dwóch łączących te urządzenia kompletów przełączników Fibre Channel powoduje, że zbudowany system funkcjonuje nieprzerwanie w przypadku awarii dowolnego z jego elementów" - twierdzi Michał Rudek.

Zbudowana konfiguracja jest zdublowana. Informatycy umieścili identyczne konfiguracje sprzętowe w dwóch ośrodkach przetwarzania, znajdujących się w budynkach oddalonych od siebie o 1,5 km. Komunikacja między nimi odbywa się z wykorzystaniem dedykowanego światłowodu.

W każdej serwerowni działa klaster składający się z sześciu serwerów RS/6000. Na pięciu pracuje produkcyjna instancja systemu Zorba 3000, obsługująca przetwarzanie danych z określonych placówek banku. Szósta maszyna pełni funkcję serwera zapasowego, który może przejąć obsługę aplikacji Zorba. Dodatkowo w serwerowniach pracują również serwery archiwizujące dane (przy zastosowaniu oprogramowania Tivoli Storage Manager).

Do przechowywania danych poszczególnych instancji aplikacji Zorba zainstalowanych na serwerach są wykorzystywane dwie macierze Shark - po jednej na każdy ośrodek przetwarzania. Chociaż każda macierz udostępnia swoje zasoby wyłącznie pięciu "lokalnym" serwerom, pracującym w tej samej serwerowni, to funkcjonuje ona również jako zapasowe repozytorium w stosunku do drugiej macierzy, przechowując dane z kolejnych pięciu instancji aplikacji, obsługiwanych przez drugi ośrodek przetwarzania. Informacje są zapisywane synchronicznie na obu macierzach z wykorzystaniem funkcji dostępnych w systemie AIX.

W celu połączenia macierzy z serwerami zbudowano dedykowaną sieć SAN, opartą na łączach Fibre Channel. Podobnie jak w przypadku innych elementów, także i sieć SAN jest zbudowana w architekturze zdublowanej. Serwery są wyposażone w 2-portowe karty Fibre Channel, połączone niezależnie z dwoma 16-portowymi przełącznikami IBM FC Switch 2109 516. Te z kolei są połączone z macierzą IBM Shark oraz krzyżowo z dwoma kolejnymi przełącznikami, pracującymi w drugim ośrodku przetwarzania.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200