LHC Saison 2: l’informatique prête pour les flots de données

Le Centre de calcul du CERN

Cette semaines, les expériences du Grand collisionneur de hadrons LHC vont commencer à enregistrer les données des collisions aux énergies inédites de 13 téraélectronvolts (TeV) – presque deux fois l’énergie de l’exploitation précédente. Jusqu'à 1 milliard de collisions se produiront chaque seconde, générant des avalanches de particules dans les détecteurs.

A chaque seconde de fonctionnement du LHC et de ses expériences, plusieurs gigaoctets de données parviendront au Centre de calcul du CERN pour y être stockés, triés et partagés avec des physiciens dans le monde entier. Afin de faire face à cet afflux massif de données, le groupe Stockage des données et services des données du CERN s’est concentré sur trois aspects : vitesse, capacité et fiabilité.

« Pendant la première période d’exploitation, nous stockions 1 gigaoctet par seconde (Go/s), avec des pics occasionnels de 6 Go/s, explique Alberto Pace, qui dirige le groupe Stockage des données et services des données au sein du département informatique du CERN. Pour la deuxième période d’exploitation, le débit qui constituait notre maximum sera maintenant considéré comme une moyenne, et nous pensons pouvoir aller jusqu’à 10 Go/s si nécessaire. »

Au CERN, l’essentiel des données sont stockées sur des bandes magnétiques  grâce au système de stockage perfectionné CASTOR et le reste est stocké sur le système commun sur disques EOS, un système optimisé permettant un accès rapide pour l’analyse à un grand nombre d'utilisateurs concurrents. La technologie des bandes magnétiques peut paraître dépassée. C’est pourtant une solution de stockage robuste, permettant d’enregistrer des énormes quantités de données et donc idéale pour la conservation à long terme. Les équipes informatiques ont amélioré le logiciel du système de stockage CASTOR. Les dérouleurs et les bibliothèques de bandes magnétiques peuvent ainsi être utilisés de manière plus efficace, sans temps mort ni retard. Le Centre de calcul peut ainsi augmenter le rythme auquel les données sont transférées sur bande et en sont extraites.

Autre défi informatique de la deuxième période d’exploitation du LHC : réduire le risque de perte de données et le problème du stockage massif de données que cela représente. Les équipes informatiques ont ajouté au système EOS une option de "découpage" des données. Cette option segmente les données et permet de garder sur disque les données récemment enregistrées afin qu’elles soient accessibles rapidement. « Cela nous a permis d’augmenter nettement notre capacité totale de données en ligne, ajoute Alberto Pace. Nous avons 140 pétaoctets d’espace brut sur disque disponible pour les données de la deuxième période d’exploitation, répartis entre le Centre de calcul du CERN et le Centre de calcul Wigner à Budapest (Hongrie). Cela signifie environ 60 pétaoctets de capacité de stockage, en comptant les fichiers de secours. »

140 pétaoctets (soit 140 millions de gigaoctets), cela fait vraiment beaucoup – c’est l’équivalent de plus de mille ans de films en haute définition.

Désormais, en plus d’utiliser la technique habituelle de la « réplication » – par laquelle une copie dupliquée est conservée pour toutes les données –, les expériences pourront répartir les données entre plusieurs disques. Cette technique de « découpage » divise les données en fragments. L’utilisation d’algorithmes de reconstruction signifie que le contenu ne sera pas perdu, même si plusieurs disques connaissent une défaillance. Cela permet non seulement de diminuer le risque de perte de données, mais aussi de diviser par deux l’espace nécessaire au stockage des fichiers de secours.

Enfin, le système EOS a été amélioré pour atteindre une disponibilité de plus de 99,5 % pour la durée de la deuxième période d’exploitation.

Avec une plus grande vitesse et de nouvelles solutions de stockage, le Centre de calcul du CERN est fin prêt à relever tous les grands défis de la deuxième période d'exploitation.