1st DecaLog Community Workshop
Amphi Charpak
LPNHE
-
-
14:30
Accueil
-
main program: keynotes
-
1
Keynote
- intro/accueil
- rappels et consignes
- readline and why
- déroulement
Orateur: M. Richard Randriatoamanana (CNRS-IN2P3 / Subatech @ Nantes, FR) -
2
Ice Breaking
faire connaissance en présentant "mon boulot/projet en 120 secondes"
Orateur: M. Richard Randriatoamanana (CNRS-IN2P3 / Subatech @ Nantes, FR)
-
1
-
community talks: Status Updates
-
3
Master Project DecaLogOrateurs: Fabrice Jammes (CNRS), Dr Pierre Aubert (LAPP), M. Richard Randriatoamanana (CNRS-IN2P3 / Subatech @ Nantes, FR)
-
4
Ecoles GrayScott 2024-2027Orateur: Dr Pierre Aubert (LAPP)
- 5
-
6
EcoSystème MesoNETOrateur: M. Richard Randriatoamanana (CNRS-IN2P3 / Subatech @ Nantes, FR)
-
3
-
14:30
-
-
demos / tutos
- 7
-
8
Status Update CSAN + demo
- le projet
- l'état des lieux
- perspectives
- demo
Orateur: M. Martin Souchal (INRAE) - 9
-
10
Kubernetes OperatorsOrateur: Fabrice Jammes (CNRS)
-
10:55
pause + photo
-
community talks
-
11
Représentation mémoire de Données Hiérarchiques
Les performances d’une application exécutée sur du matériel moderne sont étroitement liées à la représentation en mémoire des données d’entrée et de sortie. Cette interaction n’est pas toujours évidente au premier abord et il est préférable de l’aborder à l’aide de conseils d’experts et d’un réglage empirique. De ce point de vue, il est préférable de s’abstenir de contraindre un code à l’utilisation d’une représentation particulière des données dès le début du processus de développement, car cela rendrait difficile toute modification ultérieure dans le cas où des tests de performance montreraient qu’une autre représentation serait plus optimale. Il est donc préférable d’écrire le code de manière indépendante de la représentation des données et de reporter les décisions relatives à celle-ci à un stade ultérieur du cycle de vie de l’application, où leur impact pourra être évalué sur des cas d’utilisation réalistes.
La recherche sur les représentations optimales des données se concentre sur plusieurs défis, notamment les représentations compatibles SIMD, la représentation de structures de données profondément imbriquées et irrégulières, ainsi que le support des organisations hiérarchiques et des stratégies de tuilage. Ces défis sont étroitement liés à l’utilisation efficace de la hiérarchie de cache des processeurs modernes, où le placement des données et les schémas d’accès ont un impact direct sur la localité mémoire et le débit. En parallèle, ces travaux visent à répondre à la demande croissante de portabilité des performances en ciblant à la fois les processeurs et les accélérateurs associés, tels que les GPU. Ce travail s’appuie sur des recherches antérieures menées dans l’écosystème de la physique des hautes énergies, notamment les travaux de Jim Pivarski sur la représentation de données irrégulières et fortement imbriquées, ainsi que sur des contributions plus récentes, telles que la thèse d’Arthur Hennequin au sein de la collaboration LHCb sur SOACollection.
Ce travail présente une approche visant à concevoir une interface de haut niveau, tout en restant hautement optimisée et personnalisable, permettant de définir la représentation en mémoire des structures de données. Ces idées sont concrétisées dans Kiwaku, une bibliothèque C++20 et ultérieure qui exploite la métaprogrammation à la compilation afin d’adapter des structures de données définies par l’utilisateur à une représentation mémoire spécifiée, sans nécessiter de modifications du code existant. À l’heure actuelle, Kiwaku fournit un plug-in prenant en charge les représentations SoA et AoS, permettant de réorganiser une structure de données à l’aide de ces primitives. La conception de la bibliothèque se prête à une intégration future avec les mécanismes de réflexion introduits en C++26, ce qui permettrait d’automatiser davantage l’adaptation des données et de réduire la quantité de code à fournir par l’utilisateur.
Orateur: Adrien HENROT -
12
UDP hautes performances
Quand on effectue des traitements de données pendant l'acquisition ("online"), le temps CPU disponible est utilisé non seulement pour du calcul scientifique, mais aussi pour traiter les paquets réseaux issus des cartes d'acquisition. Lesdites cartes utilisent généralement le protocole UDP, ce qui simplifie l'envoi des paquets côté électronique au prix de compliquer leur réception côté informatique.
Sur des réseaux haut débit (à partir de 10 Gbps), le traitement des paquets UDP reçus peut avoir un coût CPU important. En effet, en UDP on travaille sous des contraintes similaires à celles du temps réel mou (tout retard dans le traitement d'un paquet entraîne le risque de perdre un autre paquet), ce qui force parfois à utiliser au niveau du noyau Linux des techniques coûteuses en CPU comme le polling de la carte réseau. Quand s'ajoute à ça le coût intrinsèque du traitement des paquets (appels systèmes, décodage des en-têtes, copies mémoire...), il n'est pas rare de se retrouver limité par les ressources CPU bien avant d'être limité par le lien réseau.
Aux groupes online de IJCLab et du LPSC, nous explorons plusieurs approches complémentaires pour réduire la consommation de CPU associée aux communications UDP. Cette intervention vise à vous présenter nos différentes pistes et l'état d'avancement de notre R&D sur chacune de ces pistes.
Orateur: Hadrien GRASLAND (IJCLab)
-
11
-
12:30
déjeuner (sur place)
-
community talks
-
13
CEEMS: A Resource Manager Agnostic Energy and Performance Monitoring Stack
With the rapid acceleration of ML/AI research in the last couple of years, the energy consumption of the Information and Communication Technology (ICT) domain has rapidly increased. As a major part of this energy consumption is due to users’ workloads, it is evident that users need to be aware of the energy footprint of their applications. Compute Energy & Emissions Monitoring Stack (CEEMS) 1 has been designed to address this issue. CEEMS can report energy consumption and equivalent emissions of user workloads in real time for SLURM (HPC) and Openstack (Cloud) platforms alike. Besides CPU energy usage, it supports reporting energy usage and performance metrics of workloads on NVIDIA and AMD GPU accelerators. It supports variety of energy sources like BMC (IPMI/Redfish), RAPL, Cray PMC, etc. In addition to energy consumption of individual workloads, CEEMS offers cluster level metrics for Data Center (DC) operators to monitor the overall energy consumption of the cluster, usage of cluster by individual users and projects, etc.
Although CEEMS has been developed with energy estimation of individual workloads as primary objective, it has been extended to report important performance metrics. It leverages the Linux perf subsystem and eBPF 2 to monitor the performance metrics of the applications which can help the end users to identify the bottlenecks in their workflows rapidly and consequently optimize them to reduce the energy and carbon footprint.
CEEMS has been built around the prominent open-source tools in the observability eco-system like Prometheus and Grafana. It has been designed to be extensible and it allows the DC operators to easily customize the energy estimation rules of user workloads based on the underlying hardware. CEEMS also integrates with Grafana Pyroscope to be able to continuously profile the user workloads on SLURM and Kubernetes platforms which proved to be an effective solution in optimizing the workloads. Finally, the talk will conclude by showing a quick demonstration of CEEMS monitoring.
Orateur: Dr Mahendra PAIPURI -
14
Algo des PyramidesOrateur: Dr Pierre Aubert (LAPP)
-
13
-
demos / tutos
-
15
mock / shredder / pixi / mustOrateur: Dr Pierre Aubert (LAPP)
-
15
-
16:30
pause
-
community talks: Invited talk
-
16
(zoom) The Future of Discovery: Converged Computing, Agentic Science, and the Evolution of the HPC Center
https://computing.llnl.gov/projects/flux-building-framework-resource-management
The traditional High-Performance Computing (HPC) center is undergoing a fundamental metamorphosis. Driven by the need to double national scientific productivity, initiatives such as The Genesis Mission are moving beyond simple resource provision toward the creation of a center as an autonomous discovery engine. This new paradigm requires a departure from the monolithic, static scheduling models of the past in favor of a fluid, software-defined infrastructure that can seamlessly integrate exascale simulation with large-scale AI and services.
At the heart of this evolution is Converged Computing—a strategic unification of the performance of HPC with the agility and modularity of cloud-native ecosystems. By leveraging the Flux Framework in coordination with user-space orchestration (Usernetes) and the Flux Operator, centers can now deploy ephemeral, sovereign "MiniClusters" that bridge the gap between bare-metal execution and automated service management.
This presentation explores how this converged foundation enables the next frontier: Agentic Science. Through the implementation of the Model Context Protocol (MCP), we define a standardized interface between AI reasoning partners and the workload manager. We demonstrate how a Flux MCP server transforms the supercomputer into a responsive API for AI agents, allowing them to autonomously navigate complex resource graphs, steer multi-step scientific workflows, and close the loop on discovery. We conclude by discussing vision for the next decade, where the HPC center functions not merely as a compute provider, but as an intelligent collaborator in the scientific process.Orateurs: Dan Milroy (LLNL), Mlle Vanessa Sochat (LLNL) -
17
(zoom) Q&A with LLNLOrateurs: Dan Milroy (LLNL), Vanessa Sochat (LLNL)
-
16
-
-
-
community talks
-
18
CRD : Cloud Recherche et Données
Le CRD est un projet à 10,4 M€ fortement sponsorisé par la DGRI notamment avec un financement de 3,6M€. Le CRD fédérera des infrastructures et services cloud hébergés à Brest, Montpellier, Paris, Toulouse, Reims et Strasbourg en partenariat avec le CIRAD, INRAE, IFREMER, l'IRD, Les universités de Montpellier, Toulouse, Reims et Strasbourg, et le PSSC. La liste des partenaires est amenée à s'étendre.
Le CRD à 3 objectifs principaux :
-
Offrir des services en mode 'cloud" : IaaS, PaaS, SaaS... XaaS, gestion des données de recherche, du stockage sur disque et, on l'espère un jour, du stockage sur bande à l'Eo. L'objectif étant que les utilisateurs aient un accès simple, immédiat et sécurisé à l'ensemble des services hébergés chez les membres de la fédération.
-
Accompagner l'ESR au "move to cloud". Ce volet inclus évidement la formation et l'accompagnement mais aussi un volet services IA via un CDD de 3 ans dédié et une brigade de veille opérationnelle
-
Gérer une marketplace permettant aux entreprises privées de proposer des services payants à l'ESR et réciproquement. Ces services sont hébergés et validés par le CRD, le plaçant ainsi comme un tiers de confiance souverain et sécurisé.
Il s'agit donc via ces 3 piliers de redonner de la compétitivité à la recherche française sur les services informatiques et les interconnecter au reste au reste monde, public et privé. Le CRD vise donc à créer, fournir, fiabiliser et sécuriser des services quels qu'en soient les domaines scientifiques.
Orateur: alexandre Dehne Garcia (INRAE) -
- 19
-
20
Table ronde
- perspectives sur une école commune en 2027
- infra dev pour in2p3
Orateur: M. Richard Randriatoamanana (CNRS-IN2P3 / Subatech @ Nantes, FR)
-
18
-
main program: what next ?
-
21
Prospectives
- project spectrum
- EuroHPC JU
- infra dev in2p3
- cern vre-hub
- ecoles decalog
Orateurs: Fabrice Jammes (CNRS), Dr Pierre Aubert (LAPP), M. Richard Randriatoamanana (CNRS-IN2P3 / Subatech @ Nantes, FR) -
22
BIlans et ConclusionsOrateurs: Fabrice Jammes (CNRS), Dr Pierre Aubert (LAPP), M. Richard Randriatoamanana (CNRS-IN2P3 / Subatech @ Nantes, FR)
-
21
-
12:30
déjeuner (sur place)
-
