14 novembre 2017 à 1 janvier 2024
Fuseau horaire Europe/Paris

2021

 

Magnetic & Mechanic Design of a 14T MRI Using Genetic Algorithms

Emre Anakok, Valerio Calvelli, Irfu/DACM

19 octobre 2021 à 11h30, salle Galilée, bat 713, Orme-des-merisiers

Suite au succès d'ISEULT, l’IRM le plus puissant au monde avec un champ magnétique de 11.72 T dans un diamètre de 900 mm, le LEAS est en train de concevoir une nouvelle machine IRM à 14 T, qui permettra d’attendre des images avec une résolution inférieure à 0.1 mm et explorer les structures les plus fines du cerveau humain ou non. Pour réussir dans ce défis scientifique et technologique, l’optimisation de la conception de l’aimant est impérative et elle doit tenir compte de plusieurs critères simultanés : l’aimant supraconducteur ne devra pas seulement produire un champ magnétique de 14 T dans une ouverture de 900 mm, avoir une homogénéité du champs inférieure à 0.1 ppm et une stabilité du champ par rapport au temps inférieure à 0.05 ppm/h, mais aussi rendre conciliable l’utilisation de deux câbles supraconducteur différents, un en Nb3Sn et l’autre en NbTi, avec les contraintes mécaniques auxquelles ils seront soumis et avoir des formes géométriques des bobines simples pour permettre la maitrise de la fabrication. L’étude exploratoire menée dans le cadre du stage a permis de montrer comment, en utilisant les algorithmes génétiques, les différents objectifs peuvent être optimisés en même temps.

video

Probabilistic Mapping of Dark Matter by Neural Score Matching

Benjamin Rémy, Dap

12 octobre 2021 à 11h30, salle Galilée, bat 713, Orme-des-merisiers

We present a novel methodology to address many ill-posed inverse problems, by providing a description of the posterior distribution, which enables us to get point estimate solutions and to quantify their associated uncertainties. Our approach combines Neural Score Matching for learning a prior distribution from physical simulations, and a novel posterior sampling method based on an Ordinary Differential Equation solver to sample the full high-dimensional posterior of our problem.

In the astrophysical problem we address, by measuring the lensing effect on a large number of galaxies, it is possible to reconstruct maps of the Dark Matter distribution on the sky. But because of missing data and noise dominated measurement, the recovery of dark matter maps constitutes a challenging ill-posed inverse problem.

We propose to reformulate the problem in a Bayesian framework, where the target becomes the posterior distribution of mass given the galaxies shape observations. The likelihood factor, describing how light-rays are bent by gravity, how measurements are affected by noise, and accounting for missing observational data, is fully described by a physical model. Besides, the prior factor is learned over cosmological simulations using a recent class of Deep Generative Models based on Neural Score Matching and takes into account theoretical knowledge. We are thus able to obtain samples from the full Bayesian posterior of the problem and can provide Dark Matter map reconstruction alongside uncertainty quantifications.

We present an application of this methodology to the reconstruction of the HST/ACS COSMOS field and yield the highest quality convergence map of this field to date. We find the proposed approach to be superior to previous algorithms, scalable, providing uncertainties, using a fully non-Gaussian prior and promising for future weak lensing surveys (Euclid, LSST, RST). We also apply this framework to Magnetic Resonance Image (MRI) reconstruction, illustrating the diversity of inverse problems we can solve.

Slides

Video

Tournesol et l'éthique de l'information

Lê Nguyên Hoang, EPFL

7 octobre 2021 à 11h30, salle Kepler, bat 709, Orme-des-merisiers

De nombreux défis mondiaux, tels que la justice sociale, le changement climatique et l'atténuation des pandémies, nécessitent une sensibilisation mondiale et des informations de qualité. Étant donné le rôle central des algorithmes de recommandation d'aujourd'hui dans le flux d'informations, ces défis ont désespérément besoin d'algorithmes pour promouvoir le contenu d'intérêt public, plutôt que de le laisser se noyer dans un flot de désinformation. Dans cet exposé, je présenterai Tournesol🌻, un projet open source dont le but est d'identifier de manière transparente les meilleures vidéos d'utilité publique en sollicitant les jugements d'un grand nombre de contributeurs sur la qualité du contenu. J'esquisserai comment Tournesol pourrait potentiellement résoudre la crise de l'infodémie, en étant le « microscope des jugements humains ». Je soulignerai les nombreux obstacles à surmonter pour y parvenir et j'expliquerai comment vous pouvez aider notre fabuleux chantier.

video

Slides

Le projet THINK (Testing Hardware Implementations of Neural Kernels)

Jean-Pierre Cachemiche, IN2P3/CPPM

15 avril 2021 à 11h30, en distanciel

L’augmentation de la luminosité dans les détecteurs de physique, sous l’effet du bruit de fond et des phénomènes de pile-up, complexifie fortement la tâche des algorithmes de reconnaissance. D'une manière générale, ces détecteurs vont requérir plus d'intelligence pour filtrer efficacement les données. Cette problématique a donné naissances aux architectures trigger-less dans lesquelles les données sont analysées par des mélanges complexes d'accélérateurs et de cartes GPUs. Une autre approche consiste à réduire les données au plus près de la source en injectant plus d'intelligence dans la chaine d'acquisition hardware
On propose dans ce projet d’évaluer l’implémentation de techniques neuronales temps réel dans les étages les plus amonts de la chaîne d’acquisition.
Plusieurs types de hardwares seront évalués : GPUs, FPGAs, chips neuromorphiques, chips MPPA tant sur le plan des performances que de la facilité de mise en œuvre.
Le projet étant dans une phase très amont, cette présentation abordera les intentions et la méthodologie du projet ainsi qu'une première comparaison des différents types de hardware pré-sentis.

Slides

Video

A machine learning technique for dynamic aperture computation

Mehdi Ben Ghali, Barbara Dalena, CEA-Irfu

11 mars 2021 à 13h30, en distanciel

Currently, dynamic aperture calculations of high-energy hadron colliders are generated through computer simulation, which is both a resource-heavy and time-costly process. The aim of this research is to use a reservoir computing machine learning model in order to achieve a faster extrapolation of dynamic aperture values. In order to achieve these results, a recurrent echo-state network (ESN) architecture is used as a basis for this work. Recurrent networks are better fitted to extrapolation tasks while the reservoir echo-state structure is computationally effective. Model training and validation is conducted on a set of ”seeds” corresponding to the simulation results of different machine configurations. Adjustments in the model architecture, manual metric and data selection, hyper-parameter tuning (using a grid search method and manual tuning) and the introduction of new parameters enabled the model to reliably achieve target performance on examining testing sets. Alternative readout layers in the model architecture are also tried.

Slides

Video