Acercándonos al LHC

INICIO CERN LHC FÍSICA EN EL LHC DETECTORES MODELO ESTÁNDAR EDUCACIÓN ENLACES NOTICIAS Y MÁS GLOSARIO

NOTICIAS: Siga las noticias.

 LHC DATOS
 


El LHC produce  alrededor de 600 millones de colisiones ( ~ 109 colisiones) protón-protón en funcionamiento nominal en los detectores ATLAS o CMS.  La cantidade de datos promedio por evento supone una media de 1 MB (1 Megabyte).

109 colisiones/s  x  1 Mbyte/colision = 1015 bytes/s  = 1 PB/s (1 Petabyte/segundo)

Dado que 1 DVD ~ 5 GB :   200000 DVDs por segundo harían falta para almacenar esos datos, o alrededor de 6000 IPods (cada uno con 160 GB de capacidad) por segundo! 

Esto es varios órdenes de magnitud más grande de lo que cualquier sistema de adquisición de datos de un detector actual puede manejar.

Un sistema trigger (disparo) está diseñando para rechazar los eventos no interesantes y mantener solo los interesantes (más información sobre el trigger en la siguiente página)..

Por ejemplo, el sistema trigger de ATLAS está diseñando para tratar unos 200 eventos por segundo.

200 eventos/s  x  1 Mbyte = 200 MB/s (200 Megabyte/segundo)

Considerando dos turnos de 10 horas por día, y unos 300 días en el año:

200 MB/s  x  2  x 10  x  3600  x  300  ~   4·1015 bytes/ano= 4 PB/año

En conjunto, los experimentos LHC producen alrededor de 15 petabytes de datos en bruto por año que deben ser almacenados, procesados y analizados.

Un sistema trigger de tres niveles es utilizado para seleccionar aquellos eventos que muestran signos de procesos físicos de interés.

  • El nivel-1 es un  trigger basado en hardware que selecciona eventos con cantidades grandes  de energía depositadas en los calorímetros, o señaés en las cámaras de muones ...
  • El nivel-2 está basado en software, y selecciona eventos a partir del análisis preliminar de los datos de interés identificadas por el nivel-1.
  • El nivel-3 hace una reconstrución inicial del evento completo, y lo selecciona si es de interés. En tal caso es almacenado para análisis posterior "offline".

Para realizar estos procesos, se aplíian sucesivamente sofisticados algoritmos a los datos en bruto, para extraer información física y observables de interés que puedan ser comparadas con prediciones teóricas.

La seguinte figura (tomada del libro The Large Hadron Collider: a Marvel of Technology editado por Lyndon Evans) muestra un esquema de los flujos de datos y las principales etapas de los procesos  involucrados.


Para más información ver  EVANS L. (Ed). The Large Hadron Collider: a Marvel of Technology. CERN and EPFL Press (2009). Capítulo 5.6.




© Xabier Cid Vidal & Ramon Cid - rcid@lhc-closer.es  | SANTIAGO (ESPAÑA) | Diseño original de Gabriel Morales Rey