Wykorzystać wszystkie rezerwy mocy

Przeciw marnotrawstwu mocy

Pojedyncze centrum obliczeniowe może mieć problem z obsłużeniem zleconego zadania we wskazanym czasie lub za oferowaną cenę, dlatego prowadzone badania są ukierunkowane na stworzenie mechanizmów wyszukiwania ośrodków obliczeniowych i innych rozproszonych zasobów zdolnych do wykonania zadania na warunkach określonych przez użytkownika. Alternatywą może być podział pojedynczego zadania na wiele zadań cząstkowych i ich dystrybucja do wielu ośrodków obliczeniowych. Najbardziej skomplikowany scenariusz przebiegu obliczeń został na razie zaproponowany w ramach projektu Cactus Code. Zgodnie z nim wykonywana aplikacja i jej dane "przemierzają" sieć, wykorzystując najmniej obciążone zasoby. Wiarygodność tego modelu już potwierdzono, jednak na razie tylko dla wybranych aplikacji. "To w praktyce dużo trudniejsze niż podział zadań w ramach jednego centrum, nawet jeżeli posługujemy się tak elastycznymi technologiami, jak web services. Na przeszkodzie stoi brak uzgodnień odnośnie do standardu komunikatów, różnice w procedurach wewnętrznych i politykach bezpieczeństwa, a także zgoła prozaiczne problemy, np. niedostateczna przepustowość sieci czy też nieefektywne mechanizmy monitorowania zasobów" - tłumaczy Krzysztof Kurowski.

Proces dystrybucji zadań cząstkowych to skomplikowane zagadnienie pozostające w bezpośrednim związku z monitorowaniem zasobów. Zarządzanie mocą obliczeniową, pamięcią, pamięciami masowymi, pasmem sieciowym itp. to tylko część problemu zarządzania zasobami. "Dużo większym wyzwaniem jest stworzenie mechanizmów pozwalających na wirtualizację zasobów niskiego poziomu, tak aby można było badać na bieżąco ich dostępność, bilansować je i rezerwować na wyższych poziomach, np. w wydzielonej grupie komputerów w ramach jednego ośrodka obliczeniowego, w całym ośrodku, w wielu ośrodkach. Równolegle potrzebne są globalne mechanizmy do kolejkowania zadań, śledzenia stopnia ich wykonania czy informowania o błędach mogących mieć wpływ na ustalone parametry, np. czas trwania obliczeń. Nad tym właśnie pracujemy" - mówi Jarosław Nabrzyski. We współpracy z firmą Sun, producentem m.in. oprogramowania Sun Grid Engine (SGE) do zarządzania zasobami lokalnymi, PCSS rozwija architekturę DRMA (Distributed Resource Management Architecture). To zestaw interfejsów mających umożliwiać bezproblemową współpracę między lokalnymi systemami rozdziału zasobów, takimi jak Portable Batch System firmy Veridian, Load Sharing Facility firmy Platform Computing, Load Leveler IBM czy Network Queuing Environment firmy Cray Research, a powstającymi systemami zarządzania zasobami dla architektur typu grid (superschedulers).

Aby dane zbierane dynamicznie stały się użyteczne, potrzebny jest mechanizm ich automatycznej publikacji. W PCSS trwają prace nad odpowiednim oprogramowaniem opartym na standardach web services. W toku prac nad mechanizmami publikacji metadanych o stanie zasobów specjaliści z PCSS przetestowali kilka serwerów katalogowych zgodnych ze standardem LDAP. Okazało się jednak, że taka konstrukcja ma mankamenty. "Serwery LDAP są optymalizowane pod kątem odczytu danych, tymczasem zmiany w stanie zasobów wymagają dużej wydajności również przy operacjach zapisu. Być może trzeba będzie wykorzystać bazy relacyjno-obiektowe lub bazy open source, np. My SQL. Należy jednak podkreślić, że rozwiązania firmowe LDAP są znacznie szybsze i wydajniejsze od powszechnie dziś stosowanego w projektach badawczych i naukowych Open LDAP" - twierdzi Jarosław Nabrzyski.

Za kratami bezpieczniej

PCSS jest również zaangażowane w prace związane z podniesieniem poziomu bezpieczeństwa w środowiskach typu grid. Znalezienie optymalnego kompromisu między zapewnieniem elastyczności a bezpieczeństwem w potencjalnie bardzo rozproszonym środowisku to poważne wyzwanie. Specjaliści z PCSS pracują m.in. nad mechanizmem umożliwiającym rozpoznanie użytkownika, sprawdzeniem uprawnień do korzystania z zasobów w środowisku rozproszonym oraz możliwością płynnego przechodzenia między zasobami należącymi do niezależnych instytucji.

Jednym z wątków projektu Progress są prace nad Valkyrie IDS - nowoczesnym, serwerowym systemem zapobiegania nie autoryzowanemu dostępowi do zasobów. Niezwykłość rozwiązania polega na analizie działań użytkowników i reakcji na nie w czasie rzeczywistym, m.in. poprzez przechwytywanie i ewentualnie zmianę parametrów wywołań funkcji systemowych, jeżeli wykazują anomalie od typowych wartości. "Opracowane przez nas komponenty stanowią uzupełnienie pomiędzy warstwą pośrednią środowiska grid a jądrem systemu operacyjnego. Nawet jeżeli Valkyrie nie zapobiegnie włamaniu, np. zdobyciu przez włamywacza konta administracyjnego, to uniemożliwi mu wykonanie szkodliwych działań" - tłumaczy Norbert Meyer z PCSS.

Projekt GridLab

Projekt GridLab rozpoczął się w styczniu 2002 r. Zaplanowano go na trzy lata.

Jego celem jest stworzenie kompleksowego środowiska do rozproszonych obliczeń. W projekcie GridLab biorą udział trzy ośrodki amerykańskie: Argonne National Laboratory, University of Southern California oraz University of Wisconsin. Po drugiej stronie Atlantyku oprócz PCSS w projekcie uczestniczą: niemieckie Albert Einstein Institute i Konrad-Zuse Zentrum, brytyjski uniwersytet w Walii, holenderski uniwersytet Vrije, włoski uniwersytet w Lecce, węgierskie centrum badań komputerowych Sztaki, czeski uniwersytet Masaryka i politechnika w Atenach.

Na konferencji Supercomputing 2002 w listopadzie ub.r. zaprezentowano jego wstępne wyniki, m.in. portal dostępowy wraz z systemem do obsługi użytkowników mobilnych, aplikację zgodną z modelem Cactus, system rozdziału zasobów, system zarządzania danymi i testowe wersje bibliotek dla programistów GAT (Grid Application Toolkit). Zespół GridLab odniósł zwycięstwo w dwóch z trzech konkursów: na najbardziej rozproszoną aplikację i na aplikację w największym stopniu obciążającą sieć.

W tej drugiej uzyskano ciągłe, trwające 2 godz. obciążenie sieci rzędu 16,5 Gb/s.

Prace badawcze prowadzone w ramach projektu GridLab stanowią podstawę do opracowania i implementacji w ramach projektu Progress kompleksowej architektury portalowej, umożliwiającej łatwy dostęp i realizację rozproszonych usług obliczeniowych. Obok brokera zasobów uwzględnia m.in. zarządzanie danymi, wizualizacją wyników, bezpieczeństwem oraz usługami portalu. Opracowane w ramach projektu nowoczesne środowisko obliczeniowe wraz z dwiema aplikacjami testowymi z zakresu bioinformatyki było prezentowane na światowej wystawie Supercomputing 2002 w Baltimore w USA, w listopadzie 2002 r.


TOP 200