Username Password Registrati
Per poter commentare su TVtech è necessario essere registrati al forum di Hardware Upgrade.
Prosegui con la registrazione (Maggiori informazioni...)
 

CERN Computer centre

 
info
trascrizione
Viaggio a Ginevra, presso il CERN, per toccare con mano le problematiche che deve affrontare il Computer Center, alle prese con 15 Petabyte di dati ogni anno. Per portare a termine questo ingente lavoro, è stata creata una rete ah hoc, la LHC Computing Grid, facente comunque capo al Computer Center.


Categoria: Hardware
Data pubblicazione: 22/10/2008
Tag: CERN, Report
Il CERN di Ginevra può essere considerato il luogo dell'avanguardia tecnologica, una vera e propria frontiera della conoscenza, in cui si studia l'infinitamente piccolo a livello fisico. Lo scopo è trovare risposte che coinvolgono anche l'origine dell'universo, con l'osservazione e lo studio di particelle finora solo teorizzate.

Per oltre vent'anni molti paesi hanno unito le proprie forze per creare l'accelaratore di particelle più grande e potente del mondo, l' LHC, Large Hadron Collider.La mole di informazioni raccolte dall'acceleratore necessitano di una potenza di calcolo elevatissima, di cui si fa carico Il Computer Center. Il centro computazionale del CERN costituisce il cuore di una rete sviluppata appositamente per questo scopo, la LHC Computing Grid.

Il centro, che si fa carico del 20% del lavoro, smista la rimanente parte ad altri 11 centri di calcolo più piccoli, indicati come Tier-1, collegati al CERN attraverso linee a 10gigabit dedicate. Questi centri smisteranno poi a loro volta ulteriore lavoro ad altre realtà più piccole.

La visita al Computer center ci ha permesso di toccare con mano le problematiche che ci si trova ad affrontare di fronte ad una sfida di questa entità. Si parla di circa 15petabyte all'anno di dati a regime, ovvero 15 milioni di gigabyte. Attualmente i server del Computer Center sono circa 4400, che incorporano qualcosa come 31.000 core. Qui al CERN si preferisce parlare di numero di core e non di processori. Per la primavera del 2009 comunque verranno aggiunti ulteriori 13.000 core, distribuiti in macchine a con quattro processori quad-core con 32GB di memoria ram.

Un altro problema di non poco conto è costituito dall'archiviazione dati: non è uno scherzo trovare spazio per 15 milioni di gigabyte ogni anno. I dati permanenti vengono archiviati su nastro, molto più affidabile negli anni rispetto a qualsiasi altra soluzione, oltre ad essere la più economica. Per la manipolazione e l'interpretazione dei dati troviamo invece macchine provviste di comuni hard disk meccanici, sui quali riversare solo parti dell'intero backup, volta per volta.

Impressionanti in ogni caso i numeri in gioco: nel Computer Center si contano circa 7.200.000 GB su disco rigido, distribuiti in circa 28.000 dischi. In arrivo altri 16.000 dischi entro qualche mese. Siamo a circa un terzo della capacità disponibile su nastro, ovvero 21.000.000 di GB di spazio suddiviso in circa 35000 cartucce. Cifre impressionanti, ma che bastano solo ad archiviare il lavoro di un anno e mezzo.

 
 

Commenti (22)

Commento # 21 di: The_misterious pubblicato il 24 Ottobre 2008, 12:45
Originariamente inviato da: Sir.Jerry
Devo ringraziare LHC o devo ringraziare chi in passato si è cimentato in una cosa che riteneva possibile grazie a "dati finiti e concreti"?

dati finiti e concreti? non è mai successo che fosse così
la ricerca è una scommessa
Commento # 22 di: amagriva pubblicato il 26 Ottobre 2008, 13:15
Ma non è che gli americani ci fanno spendere i milioni di euri e poi ci ciuffano i risultati con l'aiutino di Intel?
Sarò paranoico ma dopo Echelon vedo complotti usa ovunque...
1 2 3