• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Światowa sieć komputerowa gotowa do obsługi danych z Wielkiego Zderzacza Hadronów w CERN

    06.07.2009. 17:11
    opublikowane przez: Maksymilian Gajda

    Oczekuje się, że Wielki Zderzacz Hadronów (LHC), najsilniejszy na świecie akcelerator cząstek, będzie generować około 15 milionów gigabajtów danych rocznie, po tym jak zacznie normalną pracę pod koniec tego roku. "Światowa sieć komputerowa LHC" (WLCG), która odgrywa kluczową rolę w obsłudze tych danych i udostępnianiu ich fizykom, pracowała już w sposób ciągły przez okres dwóch tygodni. Eksperyment stanowi pierwszą demonstrację w środowisku produkcyjnym obejmującą pełny cykl danych, od zgromadzenia do zanalizowania.

    LHC, znajdujący się w Europejskim Laboratorium Fizyki Cząstek Elementarnych (CERN) w Szwajcarii, to 27-kilometrowy pierścień superprzewodzących magnesów, wyposażony w struktury przyśpieszające, który jest w stanie znacznie zwiększyć energię cząsteczek w ruchu. Wewnątrz akceleratora dwie wiązki cząsteczek rozpędzane są przez potężną energię do prędkości bliskiej prędkości światła, po to by za chwilę zderzyć się ze sobą. Celem, dla którego zbudowano zderzacz jest umożliwienie obserwowania cząstek elementarnych, po to aby naukowcy mogli znaleźć odpowiedzi na ważne pytania z zakresu fizyki cząstek elementarnych, które pozostają dotąd bez odpowiedzi.

    LHC jest miejscem prowadzenia sześciu dużych eksperymentów międzynarodowych, w tym zaplanowanego na wielką skalę projektu ATLAS (Toroidalny aparat LHC). Detektor ATLAS będzie wykorzystywany do badania szeregu niewyjaśnionych dotąd zagadnień fizycznych, jak istnienie bozonu Higgsa (który uważa się za cząstkę stojącą za mechanizmem nabierania masy przez cząsteczki), oraz dodatkowych wymiarów i cząstek składających się na ciemną materię. Naukowcy kierujący eksperymentami i analizujący ogromne ilości informacji generowanych przez detektor, będą opierać się na technikach informatyki sieciowej, która pozwala korzystać z zasobów tysięcy komputerów w celu zapewnienia niezawodnego dostępu do danych.

    Sieć WLCG łączy ponad 140 centrów komputerowych w 34 krajach, tworząc i utrzymując infrastrukturę do przechowywania i analizowania danych dla fizyków zajmujących się problemami dużych energii i wykorzystujących LHC. Będzie ona obsługiwać gromadzenie i przetwarzanie danych oraz narzędzia do symulacji i wizualizacji. Tylko sam eksperyment ATLAS wymagać będzie niemal 1 miliona analiz przy ruchu sieciowym na poziomie 6 gigabitów na sekundę, utrzymującym się przez dłuższe okresy. Wyjątkowa wydajność sieci ma szczególne znaczenie, ponieważ oczekuje się, że z WLCG będą korzystać jednocześnie tysiące użytkowników.

    Eksperymentalne dane z LHC nagrywane są w CERN na taśmę, a następnie przekazywane do 11 dużych centrów komputerowych (zwanych "centrami poziomu 1") we Francji, Hiszpanii, Holandii, Kanadzie, Niemczech, Skandynawii, na Tajwanie, w USA, Wlk. Brytanii i Włoszech. Tam dane są udostępniane ponad 120 "centrom poziomu 2", gdzie można wykonywać konkretne analizy. Poszczególni naukowcy mogą wówczas uzyskać dostęp do informacji poprzez któryś z lokalnych klastrów komputerowych albo wręcz ze swojego własnego komputera.

    "W czterech eksperymentach LHC [...] wykazano, że można jednocześnie zarządzać danymi nominalnymi" - mówi Sergio Bertolucci, dyrektor ds. badań i informatyki w CERN. "Po raz pierwszy równocześnie korzystano z wszystkich aspektów obliczeń opisujących eksperymenty: symulacji, przetwarzania i analizy danych. Pozwala to wierzyć, iż będzie można skutecznie analizować pierwsze dane uzyskane z LHC pod koniec roku."

    Gonzalo Merino, kierownik centrum poziomu 1 w Barcelonie, stwierdził: "Było to bardzo wartościowe doświadczenie, ponieważ przetestowano równocześnie wiele ciągów pracy eksperymentalnej na bezprecedensową skalę, znacznie przewyższającą wartości nominalne poboru danych z LHC. Poziom 1 w PIC zapewnił bardzo stabilną i niezawodną obsługę na rekordowym poziomie: wymieniano niemal 80 terabajtów danych dziennie z innymi centrami w sieci WLCG, a tempo przetwarzania danych przekraczało 2 gigabajty na sekundę. Takie wyniki dają nam podstawy, by twierdzić, iż hiszpańskie centra WLCG są gotowe do przyjmowania danych."

    David Foster, szef Prywatnej Sieci Optycznej LHC, dodaje: "Nowe możliwości pojawiające się w zakresie 40 Gbps i 100 Gbps powinny pomóc nam w zaspokojeniu przewidywanych potrzeb związanych z dystrybucją danych pochodzących z eksperymentów LHC."

    "Jest to następny ważny dowód na to, że wspólne infrastruktury mogą być wykorzystywane równocześnie przez wiele społeczności naukowych, wymagających dużej przepustowości" - wnioskuje Ruth Pordes, dyrektor zarządzający konsorcjum Otwarta Sieć Naukowa.

    Eksperyment WLCG obejmował także wielkoskalowe testy scenariuszy analiz prowadzonych przez użytkowników końcowych. Ponadto sprawdzono infrastruktury wspierające społeczność naukową w celu upewnienia się, czy są one w stanie zapewnić jej adekwatne szkolenia, by utrzymać jej niezależność finansową.

    Źródło: CORDIS

    Więcej informacji:

    Europejskie Laboratorium Fizyki Cząstek Elementarnych (CERN):
    http://public.web.cern.ch

    Sieć komputerowa Wielkiego Zderzacza Hadronów:
    http://public.web.cern.ch/public/en/LHC/Computing-en.html

    Źródło danych: Europejskie Laboratorium Fizyki Cząstek Elementarnych (CERN)
    Referencje dokumentu: Na podstawie informacji uzyskanych od CERN

    Czy wiesz ĹĽe...? (beta)
    ROOT - obiektowy szkielet aplikacji (ang. framework) wspomagający pisanie programów do analizy danych. Powstał w 1994 roku w laboratorium CERN na potrzeby analizy danych fizyki wysokich energii i jest od tego czasu stale rozwijany. ROOT zawiera: LHCb (skrót ang. "Large Hadron Collider beauty") – detektor cząstek elementarnych przy genewskim Wielkim Zderzaczu Hadronów (LHC) w CERN. Akcelerator zderzeniowy - urządzenie rozpędzające cząstki elementarne w przeciwnych kierunkach w dwóch tunelach, by zderzyły się i zużyły prawie całą porcję energii kinetycznej na wytworzenie nowych cząstek. Do najważniejszych działających należy Wielki Zderzacz Hadronów w CERN.

    LHC@home - projekt przetwarzania rozproszonego platformy BOINC. Jego celem jest umożliwienie dokładnej kalibracji akceleratora cząstek elementarnych, Large Hadron Collider (LHC), budowanego przez CERN w Genewie. TOTEM (ang. TOTal Elastic and diffractive cross section Measurement) – jeden z sześciu detektorów przy wybudowanym w CERN-ie Wielkim Zderzaczu Hadronów (LHC).

    ALICE (ang. A Large Ion Collider Experiment) – jeden z sześciu detektorów przy wybudowanym w CERN-ie Wielkim Zderzaczu Hadronów (LHC). CMS (ang. Compact Muon Solenoid) – detektor przy wybudowanym w CERN-ie Wielkim Zderzaczu Hadronów (LHC), który posłuży m.in. do obserwacji mionów.

    Physics Analysis Workstation (w skrócie PAW) – interaktywne narzędzie do analizy danych. Wyposażone we własny język skryptowy, umożliwia przede wszystkim graficzną prezentację i analizę wyników. PAW znajduje szerokie zastosowanie w fizyce wysokich energii. Program został stworzony w CERN-ie, w 1986 roku. Opracowano go z myślą o przetwarzaniu dużych ilości informacji. PAW jest zbudowany w oparciu o bibliotekę CERNLIB, którą stanowi pokaźna kolekcja procedur napisanych w Fortranie. Europejska Organizacja Badań Jądrowych CERN (fr. Organisation Européenne pour la Recherche Nucléaire) – ośrodek naukowo-badawczy położony na północno-zachodnich przedmieściach Genewy na granicy Szwajcarii i Francji, pomiędzy Jeziorem Genewskim, a górskim pasmem Jury. Obecnie do organizacji należy dwadzieścia państw. CERN zatrudnia 2600 stałych pracowników oraz około 8000 naukowców i inżynierów reprezentujących ponad 500 instytucji naukowych z całego świata. Najważniejszym narzędziem ich pracy jest największy na świecie akcelerator cząstekWielki Zderzacz Hadronów.

    DESY (skrót od Deutsches Elektronen-Synchrotron – Niemiecki Synchrotron Elektronowy) – laboratorium fizyki i ośrodek badawczy zlokalizowane w Hamburgu. Także nazwa jednego z akceleratorów wybudowanych w tym laboratorium. DESY należy do największych europejskich ośrodków naukowych, posiada drugi co do wielkości w Europie (po CERN-ie) akcelerator cząstek.

    Bozon Higgsa (higson) – cząstka elementarna, której istnienie jest postulowane przez model standardowy, nazwana nazwiskiem Petera Higgsa. 4 lipca 2012 ogłoszone zostało odkrycie nowej cząstki elementarnej przez eksperymenty ATLAS i CMS, prowadzone przy Wielkim Zderzaczu Hadronów w CERNie. Wyniki ogłoszone 4 lipca zostały potwierdzone przez rezultaty kolejnych eksperymentów, publikowane w ciągu następnego roku. Masa odkrytej cząstki, wykrycie jej w oczekiwanych kanałach rozpadu oraz jej właściwości stanowiły mocne potwierdzenie, że jest to długo poszukiwany bozon Higgsa. W kwietniu zespoły pracujące przy detektorach CMS i ATLAS ostatecznie stwierdziły, że cząstka ta jest bozonem Higgsa.

    CAMAC, czyli Computer Automated Measurement And Control - popularny standard modułowej aparatury elektronicznej, wykorzystywany głównie w systemach akwizycji danych. Współcześnie stosowany do zbierania danych i sterowania w eksperymentach naukowych (z fizyki cząstek elementarnych oraz jądrowej), czasem używany w przemyśle i elektronicznych systemach medycznych. LEP (z ang. Large Electron Positron Collider, Wielki Zderzacz Elektronowo-Pozytonowy) – akcelerator pracujący w CERN pod Genewą w latach 1989-2000. Znajdował się on w tunelu o obwodzie 27 km. Akcelerator po wybudowaniu w 1989 roku potrafił rozpędzić elektrony do energii 45 GeV, a pod koniec swojego działania do 104,6 GeV.

    Jacek Prentki (ur. w 1920 roku w Lyonie, zm. 29 listopada 2009 roku w Genewie) - fizyk teoretyczny, badacz fizyki cząstek elementarnych, współzałożyciel Departamentu Fizyki Teoretycznej CERN, profesor Collège de France.

    Dodano: 06.07.2009. 17:11  


    Najnowsze