Innova.- El director del IFCA asiste a la inauguración del sistema de análisis de datos del acelerador de partículas

Actualizado: viernes, 3 octubre 2008 16:13

SANTANDER, 3 Oct. (EUROPA PRESS) -

El director del Instituto de Física de Cantabria (IFCA), centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad de Cantabria (UC), Francisco Matorras, asiste hoy en Ginebra a la inauguración del sistema de computación que usará el acelerador de partículas.

El acto, conocido como 'LHC Grid Fest' servirá para dar a conocer el sistema de computación que utilizará el gran acelerador de partículas, Large Hadron Collider (LHC), con el que se realizará la gestión y análisis de los datos que obtenga el experimento.

Cuando el LHC genere la primera colisión de protones, que seráprovocada mediante grandes cantidades de energía y a velocidadessimilares a la de la luz, se comenzarán a producir alrededor de 15millones de Gigabytes de datos cada año, que serán analizadoscasi instantáneamente.

De esta forma, para que toda esta información sea gestionada de lamanera más eficaz posible, se anunciará en este acto la disposición del 'Worldwide LHC Computing Grid' (WLCG), una infraestructura diseñada para apoyar este "desafío" de datos, con los que trabajarán más de 7.000 físicos de todo el mundo.

En este dispositivo trabajarán de forma coordinada recursos compartidos de más de 140 centros de investigación en 33 países.

PARTICIPACIÓN DEL IFCA

El IFCA colabora, además de con la construcción de uno de los detectores del LHC --el denominado CMS-- y el análisis de susdatos, físicos e ingenieros, con el desarrollo de herramientas e infraestructuras informáticas para este proyecto.

Esta labor fue iniciada por el investigador del CSIC, Jesús Marco, y en la actualidad la coordina el director del centro, Francisco Matorras.

En este momento el IFCA dispone de una de las dosinfraestructuras que existen en España para el análisis de este tipode datos, accesible para casi un millar de científicos de todo elmundo. Asimismo, cuenta con unos 250 nodos de cálculo y unalmacenamiento de 100.000 GB para esta actividad.

Esta 'superestructura' se ampliará de forma progresiva en lospróximos meses con el fin de duplicar las capacidades al inicio de latoma de datos procedentes del LHC, en la primavera de 2009.

Por otra parte, durante todo este año el IFCA ha utilizado ya estos recursos para el procesado de datos simulados destinados apreparar tanto la toma de datos real, como los primeros resultadosde prueba del detector.

Así, en total se han copiado, desde Ginebra, unos 500.000 GB y se realizaron alrededor de 250.000 trabajos de análisis sobre estos datos.