Deeltjesfysica, CERN en GRID-computing Sheets gestolen van: Jorgen D’Hondt (VUB - Brussel) Frank Linde, Els Koffeman en Jeff Templon (NIKHEF) Ivo van Vulpen NIKHEF = Nationaal Instituut voor Kern en Hoge Energie Fysica Fundamenteel onderzoek: Bestuderen van de bouwstenen van de natuur (deeltjes) Bestuderen interactie tussen de fundamentele deeltjes (krachten) structuur van atomen 0.00001 mThompson 0.00000001 m Rutherford Bohr 0.000000001 m ELEMENTAIRE DEELTJESFYSICA (INTRODUCTIE) Het proton Puntdeeltje met positieve lading ? ‘Kijken‘ met een electron Deeltje of golf ? -> Voor 1900 alleen deeltjes -> Na 1900 deeltje/golf dualiteit Planck: E hc / Hoe hoger de energie, hoe kleiner de golflengte Frequentie Golflengte Energie BRON (MHz) (meter) (eV) Radio zenders 1 Televisie zenders 100 1 GSM 1000 0,1 Magnetron 10000 0,01 Radar 100000 0,001 Infrarood 100000000 0,000001 1 Ultraviolet 1000000000 0,0000001 10 Rontgen Gamma straling Kosmische straling 1000 proton = 10-15 m=1*109 eV 1000000 = 1 GeV 10000000000 In het proton ‘kijken’ Proton blijkt opgebouwd uit quarks Golflengte bepalend voor resolutie structuur v/d materie 10-11 m 10-14 m 10-15 m proton neutron proton = uud Massa = 938 MeV Lading = +1 neutron = udd Massa = 939 MeV Lading = 0 Levensduur = ∞ Levensduur = 900 s Elementaire deeltjes electron muon tau leptonen e neutrinos down strange bottom quarks up charm top Mediatoren van krachten electromag netisme photon zwakke wisselwer king Z sterke wisselwer king gluon ( ) W ,W NB: Gravitatie niet bevat in Standaard Model (geen quantumtheorie) - Veel open vragen die het Standaard Model niet beantwoordt: Kan de zwaartekracht niet toetreden tot het Standaard Model ? Wat is de oorsprong van de massa van de deeltjes ? (Higgs boson) In hoeveel dimensies leven we ? Hebben we nu echt de fundamentele elementaire deeltjes ? Zijn er nieuwe symmetrieen in de natuur ? Waarom zijn er slechts drie families van fermionen ? Waarom is er meer materie dan anti-materie in ons universum ? Zijn protonen stabiel ? Wat is die donkere materie en donkere energie ? Wat zullen we observeren bij nog hogere temperaturen of energiën ? Waarom zijn de neutrino massa’s zo klein ? ELEMENTAIRE DEELTJESFYSICA (DE LHC) CERN, Geneve de ‘Large Hadron Collider’ of LHC versneller s = 14 TeV botsen van protonen s = 14 TeV vanaf de zomer van 2007 Hoezo ‘hoge’ energie ? Kinetische energie auto van 1000 kg die 180 km/uur rijdt: 1 Glas cola levert bij verbranding 420 kJ mv 1.25 MJ 2 2 1 electron die potentiaalverschil van 1 V overbrugt: 1 eV 1.6 10 Kinetische energie mug 7 TeV = 1 mJ = 10-20 m 19 J Protonen in LHC: ‘s werelds krachtigste microscoop De CERN versnellertunnel Botsingen van protonen bij LHC s = 14 TeV 27 km lang, 100 m onder de grond De tunnel De Large Hadron Collider (eigenschappen) Door elk botsingspunt per seconde 600.000.000.000.000 particles each with an energy of 7.000.000.000.000 eV Wereldjaar van de fysica in 2005 : honderd jaar na zijn briljante jaar 1905 Met een detector kunnen we de eigenschappen meten van de deeltjes die we produceren botsingen bestuderen (ATLAS detector) Een gat in de grond van ongeveer 100m diep… Een oude LEP detector Typische LHC deeltjes detector 20 m dwarsdoorsnede energiemeting hadron deeltjes (quarks) impuls en lading geladen deeltjes magneet energiemeting electromagnetische deeltjes detectie en impulsmeting van muonen Een complexe puzzel Find 4 straight tracks. Duizenden deeltjes: zoek 4 sporen die bijna rechtdoor gaan Nodig : een hoge resolutie sporendetector → NIKHEF bouwt mee April 2005 COMPUTING ISSUES Pure data rate: Een van de vier LHC detectoren online system multi-level trigger filter background reduce data volume 100 Mb/sec * ~107 sec per jaar 1000 Tb = 1 Pb per jaar Data verwerking: het computing probleem: Een typische botsing Event informatie op 3d-map Reconstrueer paden door hits Ken type deeltje toe per object Vind de botsingen/ deeltjes die je zoekt Naald in een hooiberg! Dit event is een makkelijk voorbeeld ~ 90 s bezig per event ! Dataverwerking: implicaties voor computing In: 100 nieuwe events per seconde = 0.01 sec/event Uit: Reconstructie en analyse = 90 factor 9000 ‘mis’ sec/event Alleen al om ‘bij’ te blijven: Een computer die negen duizend keer sneller is of negen duizend computers. Moore’s law: 2020 Ready in 2007 Benodigde CPU: 4 LHC experimenten Elk event meerdere keren geanalyseerd Monte Carlo simulaties (~30 min per event) >1000 natuurkundigen analyseren subset in detail Rekenkracht: ATLAS @ LHC year CPU (3,6 GHz Xeon equiv.) 2007 2008 2009 14k 41k 67k 2010 114k Benodigde opslagcapaciteit: Data Explosie: ATLAS @ LHC year 2007 2008 2009 2010 Fast storage (TB) 9.670 27.735 42.780 72.453 Permanent storage (TB) 5.180 16.846 29.733 48.398 In 2010 dus … 120 duizend Tb! GRID COMPUTING LHC User Distribution + Grid: Verdeel rekencapaciteit en opslag over de wereld Tier0 -> experiment zelf (10x) Tier1 -> bewaren alle ruwe data (NIKHEF/SARA) (30x) Tier2 -> user analyses Grid Computing similar to WWW ?? WWW Informatie lijkt lokaal Eigenlijk overal ter wereld Jij moet informatie vinden Open toegang Grids Rekenkracht en data lijken lokaal Eigenlijk overal ter wereld Taken automatisch gerund Zwaar beveiligd Privacy concerns Aanvallen voorkomen Het grid doet het nu al: NIKHEF ATLAS groep: 80 jaar rekenwerk in 1 maand NB: NIKHEF was weer #4 (+- 100 sites nu) Grid zoals ervaren door een van de 1500 ATLAS natuurkundigen: Input : Ik wil event 172436 tot 172536 uit run 1239 analyseren met ATLAs versie 10.0.2. Authentication en access: (Ivo van Vulpen is member of ATLAS virtual organisation and is allowed to acces this data and run on these computers for this amount of time and the bill will be sent to that person) Transparent: job runt op computers die de vereiste software hebben, bijv SLC3 met ATLAS version 10.0.2 and gcc compiler 3.2 met geheugen groter dan 1 Gb. Software die de node dichtst bij fysieke data file vindt om data transfer te voorkomen (Taiwan, VS, Oslo, NIKHEF) Output : Data file met histogrammen door mij op te halen van de computer waar de job gerund heeft. CONCLUSIES Elementaire deeltjesfysica. Fundamenteel onderzoek staat aan de rand van (weer) een grootschalige doorbraak. NIKHEF doet vooraan mee. Grids en wereld-wijde gedistribueerde computing Geinspireerd door grootschaligheid fundamenteel onderzoek. Werkt nu al. Meerdere grids en user communities (genetici, meteorologen, …). Enorme schaalvergroting nu! Meer informatie: [email protected]