Ulepszanie danych

Można zakładać, że błędy ludzi są przypadłością nieuniknioną, ale pewnego rodzaju pomyłki nie powinny zdarzać się w przedsiębiorstwie z dojrzałą organizacją, ponieważ istnieje w nim wiele zabezpieczeń.

Do oceny centrów danych może być używany model CMM (Capability and Maturing Model), który jest modelem do usprawniania procesów, oceniającym poziom dojrzałości w pięciostopniowej skali. Przy ocenie organizacji IT należy zwrócić uwagę na standardowe procedury operacyjne: czy stosowane jest SLA i jak jest mierzone.

Szkolenia, dokumentacja i standaryzacja są istotną składową pomyślnych procesów. Organizacje niespełniające wymagań w skali CMM mają zazwyczaj więcej do czynienia z brakiem dyscypliny niż brakiem umiejętności.

Na jednym końcu [skali CMM] jest organizacja zatrudniająca osoby, które perfekcyjnie zarządzają centrami danych i są niezastąpione, ale niestety nie prowadzą pełnej dokumentacji działań, i jeżeli jedna z takich osób "wypadnie z obiegu", to wtedy zaczynają się problemy. Drugie ekstremum to w pełni udokumentowane środowisko, gdzie wszystko jest zautomatyzowane, a jeżeli coś nie jest zautomatyzowane to istnieją ściśle określone procedury ręczne.

Kluczowe jest to, aby wewnętrzne standardy były rygorystyczne, dobrze udokumentowane i docierały do każdej osoby w organizacji. Takie standardy powinny być rozpisane "w dół" na proste zadania, takie jak konfigurowanie przełącznika, a nawet konwencja nazewnictwa używanego w sieci.

Usprawnianie procesów

Sukces organizacji w zakresie dostępności w znacznej mierze zależy od implementacji standardów i kontroli, tak jak się to robi przy tradycyjnym planowaniu odtworzenia danych po katastrofie. Większość problemów związana jest z nieadekwatnym testowaniem, błędami w konfigurowaniu lub innymi.

Często główny nacisk w programach wysokiej dostępności kładzie się na technologie, zamiast na redundancję i możliwość obchodzenia błędów i innych problemów, ale w praktyce nie uzyskuje to zadowalających wyników. Większość przerw w działaniu nie ma swojej przyczyny w technologii, ale w zmianach wprowadzanych przez ludzi.

Program wysokiej dostępności pokrywa się z inicjatywą "ulility computing", dającą możliwość zmiany procesów wyposażania aplikacyjnego i administrowania. Celem jest odejście od serwerów dedykowanych dla każdej aplikacji na rzecz modelu infrastruktury współużytkowanej, w której właściciel aplikacji zakupuje zestaw usług - jednostki przetwarzania, pamięci, dostępność itp. - od IT.

Każda usługa IT może być dostępna na jednym z dostępnych poziomów jakości. Przed wdrożeniem aplikacji jej dysponent musi określić, ile zasobów przetwarzania potrzebuje, ile pamięci oraz wymagany poziom dostępności. To wszystko jest określane niezależnie od tego, czy aplikacja wdrażana jest na niezależnej maszynie, w klastrze z lokalnym obchodzeniem uszkodzeń lub w klastrze obsługującym zarówno lokalne, jak i zdalne obchodzenie uszkodzeń.

Chociaż każdy poziom usługi przekłada się na specyficzną konfigurację standardową, model administracyjny jest tu spójny na wszystkich trzech poziomach. Skonsolidowana infrastruktura znakomicie obniża koszty sprzętu.

Jednym z kluczowych elementów jest standaryzacja konfigurowania serwerów produkcyjnych i zapewnienie, że serwery te są takie same na etapie projektowania i testów. Każdy nowy kod lub zmiany w systemach produkcyjnych wprowadzać powinna grupa centralna, odpowiedzialna za zarządzanie wydaniami, zapewniająca, że są one spakowane z testami, uruchomione według listy kontrolnej testów i następnie przekazane do produkcji.

W środowisku produkcyjnym projektanci aplikacji i właściciele aplikacji nie powinni posiadać żadnych uprawnień administracyjnych. Mogą oni obyć się bez uprawnień administracyjnych nawet na etapie testów i projektowania. Przy takim założeniu środowisko będzie zarządzane z gwarancją, że konfiguracja w czasie testów jest zgodna z konfiguracją serwerów produkcyjnych.

Poza zapewnieniem ważnych punktów kontrolnych i ułatwieniem zarządzania złożoną infrastrukturą, połączenie standardowej konfiguracji, standardowych procedur, automatycznych narzędzi wyposażania cyfrowego i skonsolidowanej infrastruktury może obniżyć koszty wysokiej dostępności. Inne technologie też odgrywają tu rolę, zwłaszcza klastrowana pamięć i wirtualizacja serwerów.

Jednak chociaż wiele z tych kosztów zostanie obniżonych, utrzymanie centrów danych w pracy ciągłej wymaga znaczącego zainwestowania w ludzi, którzy będą je utrzymywać, nie wspominając o czasie i wysiłku poświęconym na usprawnianie procesów, za pośrednictwem których zarządzana jest cała infrastruktura. Szkolenia, standardy i staranne zarządzanie zmianami będą nabierać większego znaczenia w miarę jak aplikacje staną się bardziej złożone i bardziej niezależne.

Dobrym przykładem jest legendarny serwer NetWare, który pracował cztery lata po tym jak został sprzedany wraz z lokalem i przypadkowo zamurowany przez brygadę remontową. Najlepszą rzeczą, jaką można zrobić dla systemów, jest pozostawienie ich w spokoju. Oczywiście nie jest to możliwe w przypadku większości aplikacji biznesowych, zwłaszcza dzisiaj, kiedy zmiany następują tak szybko. Ale jeśli nie można postawić muru, to przynajmniej trzeba odgrodzić je czerwoną taśmą.


TOP 200