Tiedämme jo, että suuri hadronikoppija (LHC) on suurin, kallein fysiikan kokeilu, jonka ihmiskunta on koskaan suorittanut. Relativististen hiukkasten törmääminen aiemmin käsittämättömiin energioihin (14 TEV: n merkkiin vuosikymmenen loppuun mennessä) tuottaa miljoonia hiukkasia (tiedossa olevia ja vielä löytämättömiä), joita on seurattava ja karakterisoitava valtavilla hiukkasilmaisimilla. Tämä historiallinen kokeilu vaatii valtavan tiedonkeruun ja -tallennuksen, kirjoittamalla tietojen käsittelyn säännöt uudelleen. Joka viides sekunti LHC-törmäykset tuottavat DVD-arvoisen datan ekvivalentin, joka on yhden gigatavun sekunnin tuotantonopeus. Tämän näkökulmasta katsottuna keskimääräinen kotitietokone, jolla on erittäin hyvä yhteys, voi pystyä lataamaan tietoja nopeudella yksi tai kaksi megatavua sekunnissa (jos olet erittäin onnekas! Saan 500 kilotavua sekunnissa). Joten LHC-insinöörit ovat suunnitelleet uudenlaisen tiedonkäsittelymenetelmän, joka voi tallentaa ja jakaa petabytes (miljoonan gigatavun) tietoja LHC-yhteistyökumppaneille maailmanlaajuisesti (vanhenematta ja harmaiksi odottaessaan lataamista).
Vuonna 1990 Euroopan ydintutkimusjärjestö (CERN) mullisti elämäntyyliämme. Edellisenä vuonna CERN-fyysikko Tim Berners-Lee kirjoitti ehdotuksen sähköisestä tiedonhallinnasta. Hän esitti ajatuksen, että tietoa voitaisiin siirtää helposti Internetin kautta käyttämällä jotain nimeltään “hyperteksti”. Ajan myötä Berners-Lee ja yhteistyökumppani Robert Cailliau, myös CERN: n järjestelmäinsinööri, kokosivat yhteen tietoverkon auttaakseen CERN-tutkijoita yhteistyössä ja jakamaan tietoja henkilökohtaisista tietokoneistaan tarvitsematta tallentaa sitä hankaliin tallennuslaitteisiin. Hypertekstin avulla käyttäjät voivat selata ja jakaa tekstiä verkkosivujen kautta käyttämällä hyperlinkkejä. Berners-Lee jatkoi sitten selaimen toimittajan luomista ja huomasi pian tämän uuden viestinnän muodon jaettavan suurelle joukolle ihmisiä. Toukokuuhun 1990 mennessä CERN-tutkijat kutsuivat tätä uutta yhteistyöverkostoa Maailman laajuinen verkko. Itse asiassa CERN oli vastuussa maailman ensimmäisestä verkkosivustosta: http://info.cern.ch/, ja varhainen esimerkki siitä, miltä tämä sivusto näytti, löytyy World Wide Web Consortium -sivustolta.
Joten CERN ei ole vieraiden tietojen hallintaa Internetissä, mutta upouusi LHC vaatii erityiskohtelua. Kuten Georgian teknologiainstituutin korkean suorituskyvyn tietojenkäsittelyn pääjohtaja David Bader on korostanut, Internetin nykyinen kaistanleveys on valtava pullonkaula, mikä tekee muista tietojen jakamisen muotoista toivottavia. ”Jos tarkastelen LHC: tä ja mitä se tekee tulevaisuuden kannalta, yksi asia, jota Web ei ole pystynyt tekemään, on hallita ilmiömäistä tiedon runsautta", Hän sanoi, mikä tarkoittaa, että on helpompaa tallentaa suuret tietojoukot teratavua kiintolevyille ja lähettää ne sitten postissa yhteistyökumppaneille. Vaikka CERN oli käsitellyt tiedon jakamisen yhteistyöluonnetta Internetissä, LHC: n tuottamat tiedot ylikuormittavat helposti käytettävissä olevat pienet kaistanleveydet.
Siksi LHC Computing Grid suunniteltiin. Ruudukko käsittelee laajaa LHC-tietoaineiston tuotantoa tasoilla, ensimmäinen (Taso 0) sijaitsee paikan päällä CERNissä lähellä Geneveä, Sveitsi. Taso 0 koostuu valtavasta rinnakkaisesta tietokoneverkosta, joka sisältää 100 000 edistynyttä CPU: ta, jotka on perustettu tallentamaan ja hallitsemaan välittömästi LHC: n pumppaamat raakatiedot (binaarikoodin 1 ja 0). Tässä vaiheessa on syytä huomata, että anturit eivät havaitse kaikkia hiukkasten törmäyksiä, vain pieni osa voidaan vangita. Vaikka vain suhteellisen pieni määrä hiukkasia voidaan havaita, tämä johtaa silti valtavaan tulokseen.
Taso 0 hallitsee osia tuotosta räjäyttämällä se erillisten 10 gigabittiä sekunnissa olevien kuituoptisten linjojen kautta 11: een Taso 1 sivustoja Pohjois-Amerikassa, Aasiassa ja Euroopassa. Tämä antaa yhteistyökumppaneille, kuten Relativistic Heavy Ion Collider (RHIC), Brookhavenin kansallisessa laboratoriossa New Yorkissa analysoida ALICE-kokeen tietoja vertaamalla LHC-lyijy-ionien törmäysten tuloksia heidän omien raskaiden ionien törmäystuloksiin.
Tier 1: n kansainvälisistä tietokoneista tietoaineistot pakataan ja lähetetään 140: een Taso 2 tietokoneverkot, jotka sijaitsevat yliopistoissa, laboratorioissa ja yksityisissä yrityksissä ympäri maailmaa. Juuri tässä vaiheessa tutkijoilla on pääsy tietojoukkoihin suorittaaksesi muuntamisen raa'asta binaarikoodista käytettäväksi informaatioksi hiukkasten energioista ja suuntauksista.
Tasojärjestelmässä on kaikki hyvää, mutta se ei toimisi ilman erittäin tehokasta ohjelmistoa, jota kutsutaan ”väliohjelmaksi”. Yrittäessään käyttää tietoja, käyttäjä voi haluta tietoa, joka on levinnyt eri palvelimille eri muodoissa oleviin datan petatavuihin. Avoimen lähdekoodin välitysohjelma nimeltään globus on valtava vastuu kerätä tarvittavat tiedot saumattomasti ikään kuin nämä tiedot olisivat jo tutkijan tietokoneessa.
Juuri tätä kerrosjärjestelmän, nopean yhteyden ja nerokkaiden ohjelmistojen yhdistelmää voidaan laajentaa LHC-projektin ulkopuolelle. Maailmassa, jossa kaikesta on tulossa "kysyntää", tällainen tekniikka voisi tehdä Internetistä läpinäkyvä loppukäyttäjälle. Kaikille maapallon toisella puolella olevien kokeilujen tuottamille tiedoille ja teräväpiirtoelokuvien katseluun olisi välitön pääsy kaikkeen, odottamatta latauksen etenemispalkkia. LHC Computing Grid, kuten Berners-Leein keksintö HTML: stä, voi mullistaa Internetin käytön.
Lähteet: Scientific American, CERN