Quarante mille exaoctets. C’est la quantité de données brutes que le Grand collisionneur de hadrons (LHC) du CERN produit chaque année, soit environ un quart de la taille totale d’internet. Le problème : personne ne peut stocker tout ça. Alors les physiciens du plus grand laboratoire de recherche au monde ont dû inventer leur propre intelligence artificielle, si rapide qu’elle est gravée directement dans le silicium des puces. ChatGPT met plusieurs secondes à répondre à une question. L’IA du CERN prend sa décision en 50 nanosecondes.

Un milliard de collisions par seconde, 0,02 % de survivantes

Cent mètres sous la frontière franco-suisse, dans un anneau de 27 kilomètres, des paquets de protons filent à une vitesse proche de celle de la lumière. Environ 2 800 de ces paquets circulent en permanence, séparés par des intervalles de 25 nanosecondes. Juste avant d’atteindre l’un des quatre détecteurs souterrains, des aimants spéciaux les compriment pour maximiser les chances de collision. Malgré les milliards de protons contenus dans chaque paquet, seule une soixantaine de paires entrent effectivement en contact à chaque croisement.

Quand deux protons se percutent, leur énergie se transforme en nouvelles particules (la fameuse équation E=mc²). Chaque collision génère quelques mégaoctets de données. Avec environ un milliard de collisions par seconde, le flux atteint un pétaoctet par seconde, l’équivalent de l’intégralité du catalogue Netflix qui défilerait en continu. Transporter tout ça jusqu’à la surface est impossible. Le CERN a donc construit un système de calcul de proximité colossal, directement au niveau des détecteurs, pour trier le bon grain de l’ivraie sur place.

Et le tri est radical : moins de 0,02 % des données sont conservées. Tout le reste disparaît à jamais.

AXOL1TL, l’algorithme qui décide en un clin d’œil

Le premier filtre, baptisé « Level One Trigger », repose sur environ 1 000 puces FPGA (des circuits reprogrammables) qui reconstituent numériquement chaque événement à partir d’informations réduites transmises par fibre optique à un débit de 10 téraoctets par seconde. Le résultat est binaire : « garder » ou « jeter ». L’algorithme chargé de cette décision s’appelle AXOL1TL (pour « Anomaly eXtraction Online Level-1 Trigger aLgorithm »). Basé sur un auto-encodeur, un type de réseau de neurones non supervisé, il a été entraîné sur les collisions « normales » du Modèle standard de la physique des particules, le cadre théorique qui décrit les composants fondamentaux de la matière et leurs interactions. Tout ce qui sort de ce schéma connu est signalé comme anomalie potentielle. En résumé, AXOL1TL ne cherche pas quelque chose de précis : il cherche tout ce qui sort de l’ordinaire.

Selon le rapport technique publié par la collaboration CMS, AXOL1TL en est à sa cinquième version, déployée depuis avril 2025. Chaque itération affine la capacité du système à repérer les événements rares sans être submergé par le bruit de fond. Environ 110 000 événements par seconde passent ce premier crible et sont envoyés vers la surface.

Là, un second niveau de filtrage prend le relais. Le « High Level Trigger » mobilise 25 600 processeurs et 400 cartes graphiques pour reconstituer les collisions en détail. Sur les 100 000 événements par seconde qui remontent du sous-sol, seul un millier est jugé digne d’être conservé. Le volume final : environ un pétaoctet de données utiles par jour, répliqué ensuite dans 170 centres de calcul répartis dans 42 pays, représentant une puissance cumulée de 1,4 million de cœurs de processeur.

Quand les GPU sont trop lents, on grave l’IA dans la puce

Pourquoi ne pas utiliser des GPU classiques, ceux-là mêmes qui font tourner les modèles de langage d’OpenAI ou de Google ? Parce qu’ils sont beaucoup trop lents. Le détecteur du LHC met en tampon les données capturées pendant 4 microsecondes. Passé ce délai, elles « tombent de la falaise », selon l’expression de Thea Aarrestad, professeure de physique des particules à l’ETH Zurich, qui a présenté ces travaux lors du Monster Scale Summit organisé par ScyllaDB ce mois-ci. Le système doit donc prendre sa décision en temps réel, avec des latences de l’ordre de la dizaine de nanosecondes, un niveau d’exigence qu’aucune plateforme d’IA commerciale ne peut approcher.

L’équipe d’ingénieurs du CERN a donc développé HLS4ML, un outil open source qui traduit des modèles d’apprentissage automatique en code C++ optimisé pour des puces FPGA, des ASIC (circuits intégrés spécifiques), voire directement en schémas prêts à être imprimés sur du silicium. Chaque paramètre du modèle est quantifié avec une précision sur mesure, chaque couche du réseau devient une unité de calcul indépendante, et une bonne partie de l’espace disponible sur la puce est occupée par des tables de correspondance précalculées. Rien ne transite par la mémoire externe : toutes les décisions se prennent sur la puce elle-même.

L’architecture rompt complètement avec le modèle informatique classique (processeur-mémoire-entrées/sorties). Ici, rien n’est séquentiel. Chaque opération démarre dès que ses données d’entrée sont disponibles, comme une chaîne de montage où chaque poste travaille en parallèle.

Les arbres battent les réseaux de neurones profonds

Surprise : dans cet environnement ultra-contraint, les modèles à base d’arbres de décision surpassent les réseaux de neurones profonds. Deux articles publiés sur arXiv par des chercheurs associés au CERN montrent que les modèles arborescents offrent des performances comparables aux architectures de deep learning, pour une fraction du coût en silicium et en énergie. L’explication tient à la nature des données : le Modèle standard produit essentiellement des mesures tabulaires, un jeu structuré de valeurs discrètes pour chaque collision. Les arbres de décision excellent sur ce type de données. Les transformers et autres architectures lourdes, conçus pour traiter du texte ou des images, sont surdimensionnés pour cette tâche.

Ce résultat va à contre-courant de la tendance actuelle, où les laboratoires d’IA rivalisent pour construire des modèles toujours plus grands. Le CERN prouve que, dans certains cas, plus petit et plus spécialisé fonctionne mieux.

La chasse aux particules fantômes continue

Le LHC a déjà permis de confirmer l’existence du boson de Higgs en 2012, une découverte validée au standard « 5-sigma », soit une certitude de 99,999 %. Plus de 80 autres hadrons ont depuis été identifiés, dont le Xi-cc-plus (Ξcc⁺), une particule « doublement charmée » détectée la semaine dernière par l’expérience LHCb, comme l’a rapporté Universe Today. Ce baryon, quatre fois plus lourd qu’un proton, résout un mystère vieux de vingt ans : en 2002, le Fermilab en avait détecté des traces, mais avec une masse trop faible par rapport aux prédictions théoriques. La nouvelle mesure, réalisée avec un niveau de confiance de 7-sigma, confirme enfin les modèles.

En parallèle, la collaboration ATLAS a présenté la semaine dernière à la conférence Moriond de nouveaux résultats utilisant des réseaux de neurones pour traquer les particules supersymétriques, ces « superpartenaires » hypothétiques qui pourraient expliquer la nature de la matière noire. Les limites fixées sur la masse des charginos et des neutralinos dépassent celles établies par le LEP, le prédécesseur du LHC.

2031 : dix fois plus de données, un nouveau défi

À la fin de l’année, le LHC s’arrêtera pour laisser place au High Luminosity LHC (HL-LHC), prévu pour entrer en service en 2031. Les aimants de focalisation seront plus puissants, les paquets de protons deux fois plus denses. Résultat : dix fois plus de collisions et un débit de données qui passera de 4 térabits par seconde à 63. La taille de chaque événement quadruplera, passant de 2 à 8 mégaoctets.

Les détecteurs devront identifier chaque collision individuellement, puis retracer chaque paire de particules jusqu’à son point d’origine, le tout en quelques microsecondes. L’IA gravée dans le silicium devra, elle aussi, franchir un nouveau palier. Les ingénieurs du CERN travaillent déjà sur les prochaines versions de HLS4ML et sur des architectures de puces encore plus denses, capables d’absorber ce déluge sans perdre la moindre collision intéressante.

Pendant que la Silicon Valley empile les milliards pour entraîner des chatbots sur des fermes de GPU, le CERN rappelle qu’il existe une autre forme d’intelligence artificielle : celle qui tient sur un fragment de silicium et qui, en 50 nanosecondes, décide si un éclat de lumière pourrait réécrire les lois de la physique.