Intelligence Artificielle appliquée à la spectro-identification de radioéléments en environnement radiologique complexe
Felipe Fernandes de oliveira, CEA/Irfu/Dap
20 octobre 14 novembre à 11h30, CEA-Saclay, Orme-des merisiers, Bat 714 pièce 118
Les interventions dans le cadre de la sûreté nucléaire et la radioprotection nécessitent d’être en mesure d’appréhender la scène d’intervention avec la meilleure connaissance possible. Dans le cadre d’environnements radiatifs, la nature des radiosotopes à l’origine de la radioactivité représente une information d’intérêt pour établir un diagnostic de la scène étudiée. La détection de photons gamma et la mesure de leur énergie jouent un rôle essentiel pour ce type de diagnostic, permettant de potentiellement identifier les radioisotopes en présence à partir de l’analyse du spectre gamma mesuré.
Afin de mener cette analyse de manière automatique, la plus fiable possible et en temps réel, des approches récentes se sont intéressées à l’utilisation d’algorithmes d’Intelligence Artificielle. Des modèles à base de réseaux de neurones sont ainsi entraînés pour traiter les spectres et répondre à la problématique de l’identification de sources radioactives. L’approche que nous présentons se fonde sur l’utilisation de données de simulation pour entraîner ces modèles et tester leurs performances en conditions réelles. Les résultats obtenus dans des environnements contrôlés, de type laboratoire, où le détecteur est directement exposé à la source, présentent des performances intéressantes, permettant d’identifier des radioisotopes avec une précision de plus de 95 % en utilisant quelques centaines de photons détectés.
Cependant, les situations réelles sont plus complexes qu’un environnement de laboratoire. En particulier, les sources radioactives vont souvent se situer derrière des matériaux absorbants ou diffusants (fûts, tuyaux, murs en béton…), environnement qui induit des distorsions sur les spectres mesurés. Ces modifications conduisent dans certains cas à ce que les modèles d’apprentissage produisent des prédictions erronées, en particulier si ces situations ne sont pas prises en compte dans les simulations pour les données d’entraînement. Il est néanmoins inenvisageable d’être en mesure de simuler l’ensemble des conditions possibles à l’aide codes Monte-Carlo classiques.
Pour répondre à cette problématique, nous proposons de développer une méthode de génération de données par apprentissage d’un modèle de Deep Learning sur un nombre limité de simulations et de conditions. Ce modèle de Deep Learning a pour objectif d’être en mesure de générer de nouvelles données dans des conditions qui n’ont pas été données en entraînement, mais qui interpolent les conditions d’entraînement. Nous présenterons ici cette approche en détails et les résultats que nous en avons obtenus. Nous étudierons également la méthode d’identification ré-entraînée à partir des nouvelles données produites, en analysant ses performances dans des conditions de plus en plus diverses et variées.
Video
LLMs : Evolution et Application Avancées : Du transformer à GPT-4 et au-delà
Imed Magroune, CEA/Irfu/Dedip
29 septembre à 11h30, salle Cassini, bat 709, Orme-des-merisiers
Video
Modélisation hybride par méthode d'apprentissage supervisé pour le couplage multi-échelle d'écoulements de gaz faiblement raréfiés en conduites
Dahia Chibouti, Université Gustave Eiffel
7 septembre à 11h30, salle Cassini, bat 709, Orme-des-merisiers
Ce travail traite de l’importance de comprendre les écoulements de fluides et les transferts de chaleur dans des systèmes micro-électromécaniques (MEMS), en particulier dans le contexte des conduites de petites sections et de grandes extensions. Lorsque l’échelle caractéristique de l’écoulement est proche du libre parcours moyenne des molécules de gaz, des conditions aux limites spéciales doivent être considérées à proximité de la paroi, car le gaz n’est plus en équilibre thermodynamique.
De nombreux chercheurs utilisent des modèles basés sur des équations différentielles pour représenter ces comportements près de la paroi, tels que les modèles continus proposés indépendamment par Navier (1823) et ultérieurement par Maxwell (1879). Toutefois, ces modèles requièrent généralement la connaissance de paramètres qui dépendent de l’échelle moléculaire/atomique, ce qui peut être contraignant.
Pour résoudre ce problème, une approche hybride multi-échelle est proposée. Elle combine des simulations moléculaires près de la paroi avec des simulations continues (les équations de Navier-Stokes, résolues par des solveurs macro utilisant la méthode des volumes finis) dans le reste du domaine. Cependant, cette méthode s’avère coûteuse en termes de temps de calcul en raison du grand nombre de simulations moléculaires nécessaires.
Afin de réduire le nombre de ces simulations, des méthodes d’apprentissage supervisé [Bishop (2006); Rasmussen and Williams (2006)] par régression bayésienne et processus gaussiens ont été mises en place pour modéliser les réponses issues de la dynamique moléculaire, et permettre ainsi de transférer efficacement les informations entre la dynamique moléculaire et le milieu continu.
Dans la présente contribution, certains résultats concernant ce couplage associé à l’apprentissage sont illustrés pour des écoulements isothermes dans des microcanaux.
abstract
FVSOOM : Un modèle et une méthode de développement de systèmes d'aide à la décision et de bases de connaissances en chimie, biologie et en clinique médicale
Joël Colloc, CNRS/université du Havre Normandie
16 février 13 avril à 11h30 12h30, en zoom uniquement salle Cassini, bat 709, Orme-des-merisiers
FVSOOMM repose sur un modèle orienté objet spécifique fondé principalement sur la composition d’objets composants et d’objets jonctions contrairement à la plupart des modèles objets qui reposent sur la notion de classe d’objet. Pour chaque objet composé, on associe un espace vectoriel flou temporel qui exprime récursivement son évolution comme la somme des vecteurs de ses objets composants jusqu’aux objets simples qui sont définis uniquement par des attributs. Le vecteur de chaque objet simple est la somme des vecteurs de ses attributs dont la propriété est exprimée par une fonction sigmoïde normalisée sur un intervalle
[-1,1] selon le domaine de définition établi par l’expert du domaine par exemple la température corporelle en °C : [35,41] ® [-1,1]. Cette approche a été utilisée pour élaborer des bases de connaissances dans des domaines très variés : en clinique médicale (cardiologie, neurologie, urgence toxicologique), en gestion (marketing), en psychologie cognitive (informatique émotionnelle), en sciences de l’éducation (tutorial d’élèves), en urbanisme (aide à la décision territoriale).
La méthode associée décrit les étapes de conception et de réalisation d’un système multi-agents d’aide à la décision (SMAAD). Le cycle de vie guide l’élaboration des composants connaissances de ce système, les processus de raisonnement et les interfaces nécessaires aux trois principales catégories d’utilisateurs (Experts Système, Experts des domaines de connaissances, Utilisateurs finaux). FVSOOMM repose sur l’analogie structurelle réalisée par le calcul des vecteurs associés aux attributs, puis aux composants connaissances nécessaires aux différents objectifs de décision sélectionnés par le SMAAD. Différents exemples en biochimie, toxicologie, biologie et clinique médicale seront présentés afin de montrer l’unification nécessaire de ces domaines de connaissances pour élaborer une décision opérationnelle conforme aux besoins des utilisateurs. Une conclusion décrira les forces et les faiblesses de notre approche, les recherches en cours et les perspectives de ce travail notamment en matière d’éthique de l’utilisation de l’IA.
RAMP : Challenges de données et apprentissage automatique
François Caud, INRIA
31 mars à 11h30, IJCLab, Auditorium Joliot Curie, bat 100
RAMP est un outil logiciel de prototypage de code qui permet de proposer et de tester de manière collaborative des workflows de machine learning. Les data challenges mis en place par CDS/DATAIA sur la plateforme ramp.studio réunissent des centaines de participants afin de résoudre des problèmes de science grâce au machine learning.
Nous présenterons RAMP, la plateforme, des exemples d’évènements déjà déployés et comment se construit un challenge.
Video
FVSOOM : Un modèle et une méthode de dévelopement de systèmes d'aide à la décision et de bases de connaissances en chimie, biologie et en clinique médicale
Joël Colloc, CNRS/université du Havre Normandie
16 février à 12h30, salle Cassini, bat 709, Orme-des-merisiers
FVSOOMM repose sur un modèle orienté objet spécifique fondé principalement sur la composition d’objets composants et d’objets jonctions contrairement à la plupart des modèles objets qui reposent sur la notion de classe d’objet. Pour chaque objet composé, on associe un espace vectoriel flou temporel qui exprime récursivement son évolution comme la somme des vecteurs de ses objets composants jusqu’aux objets simples qui sont définis uniquement par des attributs. Le vecteur de chaque objet simple est la somme des vecteurs de ses attributs dont la propriété est exprimée par une fonction sigmoïde normalisée sur un intervalle
[-1,1] selon le domaine de définition établi par l’expert du domaine par exemple la température corporelle en °C : [35,41] ® [-1,1]. Cette approche a été utilisée pour élaborer des bases de connaissances dans des domaines très variés : en clinique médicale (cardiologie, neurologie, urgence toxicologique), en gestion (marketing), en psychologie cognitive (informatique émotionnelle), en sciences de l’éducation (tutorial d’élèves), en urbanisme (aide à la décision territoriale).
La méthode associée décrit les étapes de conception et de réalisation d’un système multi-agents d’aide à la décision (SMAAD). Le cycle de vie guide l’élaboration des composants connaissances de ce système, les processus de raisonnement et les interfaces nécessaires aux trois principales catégories d’utilisateurs (Experts Système, Experts des domaines de connaissances, Utilisateurs finaux). FVSOOMM repose sur l’analogie structurelle réalisée par le calcul des vecteurs associés aux attributs, puis aux composants connaissances nécessaires aux différents objectifs de décision sélectionnés par le SMAAD. Différents exemples en biochimie, toxicologie, biologie et clinique médicale seront présentés afin de montrer l’unification nécessaire de ces domaines de connaissances pour élaborer une décision opérationnelle conforme aux besoins des utilisateurs. Une conclusion décrira les forces et les faiblesses de notre approche, les recherches en cours et les perspectives de ce travail notamment en matière d’éthique de l’utilisation de l’IA.
Utilisation du computer vision pour le HPDA
Martial Mancip, CEA/Maison de la simulation
06 janvier à 11h30, Maison de la simulation, CEA-Saclay, Bat 565
Nous allons présenter un cas d'usage de la vision assistée par ordinateur avec de la visualisation scientifique pour l'analyse de données issues de calculs haute performance.
La production d'ensemble de simulations HPC découlant de variations paramétriques entraîne la nécessité d'analyser des très grands volumes de donnée en espace-temps.
Pour construire des métriques permettant de comprendre les évolutions des évènements physiques de ces ensembles, on a utilisé des réseaux profonds convolutifs multi-catégoriels supervisés avec de l'augmentation. On a basé notre apprentissage non pas sur les données physiques mais plutôt sur des images de visualisations scientifiques pour ne pas la faire dépendre des maillages des calculs.
On a appliqué ces techniques à des simulations d'exo-Jupiters et cela nous a permis de mieux comprendre certains cas et de faire des découvertes intéressantes.
On est en train d’appliquer des techniques d’encadrement qui vont nous permettre de faire des sauvegardes haute fréquence autour des évènements d'intérêt détectés au cours des simulation.
Ces idées vont permettre de concevoir des boîtes à outils de post-traitements et d’analyses hautes performances à adapter à chaque physique vers les simulations exa-scale.