Energia obliczeń

Rozwiązania gridowe mają pomóc w opanowaniu powodzi danych, która będzie efektem projektu LHC w genewskim CERN-ie.

Rozwiązania gridowe mają pomóc w opanowaniu powodzi danych, która będzie efektem projektu LHC w genewskim CERN-ie.

Mówienie o gridach stało się ostatnio mniej popularne. Prace nad nimi wciąż jednak są prowadzone bardzo intensywnie. Cały czas biorą w nich udział również zespoły naukowców z Polski. Poważnym sprawdzianem efektywności rozwiązań gridowych będzie przeprowadzony przez Europejskie Centrum Badań Nuklearnych CERN w Genewie projekt LHC (Large Hadron Collider) - Wielki Zderzacz Hadronów. Zakłada się, że może on przyczynić się do odkrycia tzw. bozonu Higgsa - hipotetycznej cząstki elementarnej, zwanej boską cząsteczką. Jej istnienie jest postulowane na gruncie teoretycznym przez Model Standardowy, ale jak dotąd nie zostało udowodnione eksperymentalnie. Przeprowadzone dotychczas w CERN badania pokazały, że gdyby boska cząstka rzeczywiście istniała, to jej energia przekraczałaby 114 GeV (gigaelektronowoltów). Dla porównania energię 1 eV mają zazwyczaj fotony światła widzialnego.

Wielki Zderzacz Hadronów

LHC to największy obecnie na świecie akcelerator cząstek, czyli urządzenie służące do przyspieszania cząstek elementarnych lub jonów do prędkości bliskich prędkości światła. Cząstki obdarzone ładunkiem elektrycznym są przyspieszane w polu elektrycznym. Do skupienia ich w wiązkę oraz do nadania im odpowiedniego kierunku używa się pola elektrycznego lub pola magnetycznego. W skład akceleratora wchodzi działo elektronowe, wytwarzające odpowiednio skierowany strumień elektronów o odpowiedniej energii. Warto przy okazji przypomnieć, że działa elektronowe są stosowane również w wielu urządzeniach powszechnego użytku - kineskopach telewizorów i monitorów, oscyloskopach czy generatorach promieniowania rentgenowskiego.

Genewski LHC, uznawany także za największą obecnie maszynę na świecie, ma średnicę 8 km i obwód 27 km. Jego uruchomienie planowane jest już na czerwiec (pierwsze wiązki) i sierpień (pierwsze zderzenia) tego roku. Będzie on zderzał protony z energią 14 TeV (teraelektronowoltów), czyli 14*1012 eV. Wyniki takich zderzeń rejestrowane będą przez cztery detektory (ATLAS, CMS, ALICE i LHC-B), urządzenia służące do zamiany otrzymanego sygnału na łatwiejszą do obserwacji lub innego wykorzystania formę. Zebrany w ten sposób materiał będzie poddawany dalszej obróbce i analizie, posłuży do dalszych prac naukowych nad budową materii i strukturą cząstek elementarnych.

Bezpieczne rozproszenie

Obróbka i przetworzenie tak olbrzymiej ilości danych i informacji, uzyskanych w wyniku działania LHC, będzie wymagało wykorzystania bardzo dużych mocy obliczeniowych. I tutaj właśnie z pomocą mają przyjść fizykom rozwiązania gridowe. "Nie ma innego wyjścia. Tylko gridy są w stanie obecnie opanować tak wielką powódź danych" - przekonuje prof. Wojciech Wiślicki, kierownik zespołu europejskiego programu EGEE (Enabling Grids for E-sciencE) w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego (ICM).

Problem polega na tym, że nie ma w tej chwili w CERN tak dużego superkomputera, który by sprostał temu zadaniu. Jeżeli nawet teoretycznie byłoby możliwe jego zbudowanie, to pojawiają się pytania, czy byłoby to opłacalne. Poza tym, umiejscowienie całej mocy obliczeniowej w jednym miejscu stwarza większe zagrożenie dla procesu przetwarzania. "Dane z akceleratora muszą być odbierane stale, bez żadnych przerw. Struktura rozproszona daje możliwość przełączania między maszynami bez konieczności przerywania procesu przetwarzania danych" - wyjaśnia prof. Wojciech Wiślicki. Grid computing pozwala uporać się także z kolejnym, wcale niebagatelnym problemem. Uruchomienie wielkich mocy obliczeniowych w jednym miejscu wymaga zapewnienia wielkiej ilości energii elektrycznej do zasilania pracujących maszyn. Przetwarzanie rozproszone powoduje również rozproszenie zapotrzebowania na prąd.

Warto również zauważyć, że wykorzystanie gridu do obsługi eksperymentów prowadzonych z wykorzystaniem LHC jest naturalną konsekwencją wcześniejszych prac i doświadczeń badaczy z CERN. Inicjatywa uruchomienia projektu EGEE narodziła się właśnie tutaj, w Genewie. Naukowcy z CERN szukali możliwości przetwarzania olbrzymiej ilości danych z akceleratorów. Stworzenie we własnym zakresie infrastruktury umożliwiającej uruchomienie potrzebnej do tego mocy obliczeniowej było jednak poza możliwościami finansowymi placówki. Postanowiono więc namówić innych do udziału w projekcie, który pozwoli na stworzenie sieci obliczeniowej dającej wszystkim możliwości wykonywania bardzo złożonych zadań.

Nie bez znaczenia dla powodzenia tego projektu był również fakt, że samo środowisko badaczy uczestniczących w eksperymentach w CERN jest mocno rozproszone. W różnego rodzaju projekty badawcze prowadzone w genewskim laboratorium zaangażowani są naukowcy z całego świata. Za okoliczność sprzyjającą można by uznać jeszcze samą specyfikę zbiorów danych fizycznych. Można je łatwo podzielić i pogrupować w segmenty do wykonywania obliczeń. Przykład LHC pokazuje, że rozwiązanie na które postawiono okazuje się być bardzo przydatne. Czy doświadczenia z LHC przyczynią się do większego zainteresowania gridami w biznesie? Może przykładem tego będzie cloud computing.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200