CERN dołącza do swojego systemu IT centrum danych pracujące na Węgrzech

CERN (European Organization for Nuclear Research; Europejski Ośrodek Badań Jądrowych; międzynarodowa organizacja zrzeszająca europejskie instytucje naukowe, mającą swoją siedzibę w szwajcarskim mieście Genewa) )rozbudowuje swoją strukturę IT, co jest związanie z rosnącą ilością danych, które produkuje Wielki Zderzacz Hadronów (LHC; Large Hadron Collider). Ośrodek zdecydował się ostatnio dołączyć do swojego systemu IT kolejny ośrodek obliczeniowy, zlokalizowany na Węgrzech.

Wielki Zderzacz Hadronów został oficjalnie uruchomiony prawie równo 5 lat temu, pod koniec października 2007 r. To wtedy swoją pracę zaczął potężny akcelerator cząsteczek, mający postać 27-kilometrowego tunelu. Ilość danych, jakie produkuje akcelerator, jest wręcz niewyobrażalna. Można to zobrazować w następujący sposób – to tak jakby 100-megapikselowe kamery wykonywały w ciągu jednej sekundy 40 mln zdjęć, które muszą być odebrane przez system IT i zmagazynowane w pamięci masowej do dalszej obróbki.

LHC produkuje obecnie każdego roku 35 petabajtów danych, które są następnie analizowane w poszukiwaniu tajemniczej cząstki Higgsa, która dała (tak przynajmniej twierdzą naukowcy) początek całemu wszechświatowi. CERN przewiduje, że po ponownym uruchomieniu Wiekiego Zderzaca Hadronów ( ponownym, ponieważ urządzenie szwankowało i było modernizowane), będzie on produkować dwa razy więcej danych niż poprzednio.

Zobacz również:

  • Polcom - jeszcze więcej środków na inwestycje

W związku z tym CERN podjął decyzję o rozbudowaniu systemu IT i dołączeniu do niego ośrodka obliczeniowego funkcjonującego na Węgrzech. Chodzi o Wigner Research Centre for Physics (Budapeszt), które zostanie podłączone do centrum danych znajdującego się w Genewie.

Dane generowane przez LHC są obecnie przetwarzane przez blisko 50 tys. rdzeni obliczeniowych wchodzących w skład wszystkich serwerów, jakie posiada CERN. Ośrodek zamierza zwiększyć w 2014 r. ilość rdzeni do 300 tys. oraz wprowadzić do użytku nowe narzędzia do analizowania danych. Te stosowane obecnie liczą już sobie 10 lat i nie nadążają z przetwarzaniem tak olbrzymiej ilości danych. Wiadomo już, że nowe narzędzia bazują głównie na oprogramowaniu Puppet (orchestration; automatyzacja i koordynacja procesów) oraz na platformie OpenStack (projekt open source pozwalający przetwarzać dane w chmurze).

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200