Mot de bienvenu
Le C++ est un des langages de programmation qui offre le plus de contrôle sur son processus de compilation, via des mécanismes comme constexpr
et la spécialisation de template
. Bien utilisées, ces possibilités permettent d'accélérer l'exécution en préparant au maximum le travail du programme pendant sa compilation. Mais si l'on en abuse, elles peuvent aussi rendre la compilation très...
Depuis novembre 2020 le compilateur nvc++ permet de compiler un programme C++17 directement sur GPU sans passer par Cuda ou d'autres méthodes type Sycl, Kokkos, OpenCL.
Retour d'experience avec la simulation de la réaction de Gray Scott sur CPU et GPU.
En physique des particules, la trajectographie joue un rôle central dans le processus de reconstruction d'événements, et constitue un des principaux défis pour les expériences présentes et futures du fait de son fort impact sur la qualité des résultats physiques obtenus. Pour reconstruire ces trajectoires, nous avons recours à différents algorithmes utilisés de manière successive. Chacun de...
Dans le contexte du calcul haute performance et d'autant plus dans le cas du calcul scientifique et de la physique des hautes énergies, l'ergonomie et la performance du code de calcul sont deux aspects souvent antagonistes
Le code se doit d’être performant au niveau algorithmique et au niveau de son adéquation avec les architectures parallèles modernes. Au niveau ergonomie, il est vital que...
Je rappelle les problèmes inhérents au calcul avec des nombres à virgules flottante en les illustrant par quelques cas concrets dans notre activité de développeur pour des codes de physiques. J'insiste notamment sur les illusions associées au terme de ``precision´´ qu'on utilise pour qualifier la résolution de nos variables à virgule flottante. Je décris aussi quelques technique de...
Le projet AGATA a pour objectif de construire un spectromètre de rayons gamma 4pi composé de 180 cristaux de germanium. Chaque cristal est divisé en 36 segments qui permettent d’identifier précisément les interactions qui se produisent dans le cristal et donc les caractéristiques du rayon gamma.
Lorsqu’un rayon gamma interagit avec le germanium il produit un signal électrique dans le segment...
Pour optimiser les performances d'un programme, il faut d'abord comprendre ce qui les limite. Sous Linux, l'un des outils de référence est le profileur perf, qui bénéficie d'une intégration au noyau et peut de ce fait avoir une vision complète de l'utilisation des ressources système par un ou plusieurs processus. Dans ce TP, vous apprendrez à maîtriser ses possibilités.
Dans le cadre de la rénovation de l'infrastructure ainsi que l'amélioration de l'expérience utilisateur, les administrateurs informatiques de l'IRFU cherchent à proposer un cluster de bastions SSH en haute disponibilité, tout en mettant en place une sécurité suffisante pour un service ouvert sur internet.
Plusieurs problèmes se posent alors: Comment diminuer au maximum la surface d'attaque...
Une tentative de phishing très ciblée a été lancée sur l'IRFU les 29 juillet ,1er aout et 17 aout 2022...
Je reviendrai sur le déroulé des opérations, les conséquences, les problèmes liés au travail à distance... Et j'expliquerai les différents outils qui ont permis en partie de limiter les conséquences...
Joel Surget
PyCoa (www.pycoa.fr) est un ensemble de codes Python qui s’adresse aux personnes souhaitant s’approprier et étudier les données
relatives à la pandémie du Covid 19: lycéens, étudiants, analystes stratégiques, data journalistes et scientifiques.
Notre logiciel, contrairement à un Dash Board classique, présente l'intérêt de pouvoir accéder directement aux données de la Covid-19
depuis...
AI applications on tiny devices : Can we run a full CNN models for voice recognition or object detection on a Micro Controller Units (MCU) with only 516 KB of RAM ?
In this quick intervention I explain the need, the continuous process of optimization and the techniques of improvement of the codes which allow to make inferences on CNN models on ARM or RISK-V cards for real-time systems...
CODEEN (COllaborative DEvelopment ENvironement) est une plateforme de développement collaboratif basée notamment sur les principes et bonnes pratiques du développement basé sur les tests, de l'intégration continue et de la livraison continue. L'objectif de la plateforme est d'une part d'automatiser l'extraction des codes scientifiques, la construction de ces codes et l'exécution des tests, des...
Les phases de R&D en apprentissage profond (Deep Learning) peuvent être coûteuses en temps d’utilisation de ressources CPU et GPU. La définition de plan d’expériences claires, permettant une exploration efficace des hyperparamètres, l’évaluation des performances et le traçage des conditions expérimentales permet de tendre vers une utilisation plus efficace des ressources et donc vers plus de...
Il nous est demandé de proposer des plans pour répondre à des restrictions sur l’approvisionnement électrique.
Notre salle machine apparaît comme un consommateur important pour l’IRFU (20% de la consommation totale de l'institut).Nous avons donc recherché des stratégies pour diminuer cette consommation en cas de pénurie.
AMI (ATLAS Metadata Interface) est un écosystème générique pour l’agrégation et la transformation métadonnées ainsi que la sélection de données scientifiques par critères de métadonnées. Bénéficiant de 20 ans d'expérience dans le contexte du LHC (Large Hadron Collider), l'écosystème profite à plusieurs collaborations scientifiques dont ATLAS, NIKA2, n2EDM, ...
Nous présenterons comment...
Je présenterai l'architecture d'accès aux données de manière transparente en utilisant plusieurs types de bases de données, à savoir base de données SQL, base de données NoSQL et base de données Graph.
Chaque base de données est utilisée pour le domaine où elle est la plus appropriée et un accès inter-technologie transparent est offert aux utilisateurs.
Les points forts et faibles des...
Ou n'attendons pas que nos vieilles bécanes se fossilisent ...
Peu de gens savent que le premier micro-ordinateur de l'histoire est français : le Micral-N. L'un des derniers exemplaires a quitté le pays en 2017 lors d'une vente aux enchères remportée par le co-fondateur de Microsoft.
La préservation du patrimoine numérique et informatique est un enjeu majeur de notre époque. De...
Apache Airflow est un puissant gestionnaire de workflow souvent utilisé pour la transformation de données.
Dans cette présentation, vous découvrirez son fonctionnement et ses différentes fonctionnalités en s’appuyant sur des cas d'utilisation au Centre de Calcul de l’IN2P3.
Depuis un peu plus de 2 ans le CC-IN2P3 propose une plateforme de notebooks Jupyter.
La présentation fera la point sur les composants logiciels sous-jacents mais aussi sur les services offerts par cette plateforme comme, par exemple, la possibilité de calcul sur GPU ou l'utilisation du framework Dask pour distribuer des tâches de calcul sur la ferme de batch SLURM.
Le projet BBQ (Beautiful Batch Query) du Centre de Calcul de l'IN2P3 (CC-IN2P3) propose une interface web pour interroger l'état des fermes de calcul (HTCondor et Slurm, et dans le passé UGE) du CC-IN2P3. Actuellement, il permet de répondre aux besoins suivants :
- Suivi opérationnel au niveau des jobs, utilisateurs et machines, avec pour certains éléments (jobs GPU, jobs en attente, etc.)...
L’observatoire Vera C. Rubin, en phase finale de construction au Chili, avec son télescope de 8,4 mètres et sa camera de 3.2 giga pixels, va produire plus de 20TB des données chaque nuit, 300 nuits par an. 50% de ces données seront traitées au CC-IN2P3 afin de produire des images prêtes pour la science ainsi qu'un catalogue astronomique. Au bout des 10 années d'exploitation, un jeu de données...
Je présenterai notre nouveau système d'installation automatique, configuration et maintenance de nos postes de travail et serveurs basé sur TFTP+Cloudinit+Ansible.
Dans cette présentation, nous discuterons des intérêts des API Kubernetes (appelées Ressources) et en quoi on t'elles permis l'évolution et l'adoption globale de Kubernetes.
Les bandes magnétiques sont souvent considérées comme un moyen de stockage dépassé, mais sont encore utilisées pour stocker de grandes quantités de données. Les performances en lecture dépendent en partie de l'ordre dans lequel les fichiers demandés sont accédés sur une bande donnée. Cette problématique n'est toutefois presque pas étudiée dans la littérature de recherche en informatique. Dans...
Des processeurs quantiques sont aujourd’hui à la disposition du publique via le service Amazon Braket ou via IBM Quantum Experience, par exemple, gratuitement ou payant, et sont utilisés par un grand nombre d’utilisateurs intéressés par ce nouveau paradigme de calcul. Des processeurs beaucoup plus performants commencent à équiper quelques laboratoires au monde et des partenariats sont mis en...
L’entraînement de modèles GNN sur de larges graphes est très couteux en mémoire. Cela représente un défi majeur pour les expériences dont les données éparses sont représentées par des graphes de très grande taille. Nous expliquerons les raisons de ce coût en mémoire spécifique aux architectures GNN et pourquoi les problèmes de dépassement de mémoire ne peuvent pas être résolus avec des...