14 novembre 2017 à 1 janvier 2024
Fuseau horaire Europe/Paris

2023

Intelligence Artificielle appliquée à la spectro-identification de radioéléments en environnement radiologique complexe 

Felipe Fernandes de oliveira, CEA/Irfu/Dap

20 octobre  14 novembre à 11h30, CEA-Saclay, Orme-des merisiers, Bat 714 pièce 118 

Les interventions dans le cadre de la sûreté nucléaire et la radioprotection nécessitent d’être en mesure d’appréhender la scène d’intervention avec la meilleure connaissance possible. Dans le cadre d’environnements radiatifs, la nature des radiosotopes à l’origine de la radioactivité représente une information d’intérêt pour établir un diagnostic de la scène étudiée. La détection de photons gamma et la mesure de leur énergie jouent un rôle essentiel pour ce type de diagnostic, permettant de potentiellement identifier les radioisotopes en présence à partir de l’analyse du spectre gamma mesuré.

Afin de mener cette analyse de manière automatique, la plus fiable possible et en temps réel, des approches récentes se sont intéressées à l’utilisation d’algorithmes d’Intelligence Artificielle. Des modèles à base de réseaux de neurones sont ainsi entraînés pour traiter les spectres et répondre à la problématique de l’identification de sources radioactives. L’approche que nous présentons se fonde sur l’utilisation de données de simulation pour entraîner ces modèles et tester leurs performances en conditions réelles. Les résultats obtenus dans des environnements contrôlés, de type laboratoire, où le détecteur est directement exposé à la source, présentent des performances intéressantes, permettant d’identifier des radioisotopes avec une précision de plus de 95 % en utilisant quelques centaines de photons détectés.

Cependant, les situations réelles sont plus complexes qu’un environnement de laboratoire. En particulier, les sources radioactives vont souvent se situer derrière des matériaux absorbants ou diffusants (fûts, tuyaux, murs en béton…), environnement qui induit des distorsions sur les spectres mesurés. Ces modifications conduisent dans certains cas à ce que les modèles d’apprentissage produisent des prédictions erronées, en particulier si ces situations ne sont pas prises en compte dans les simulations pour les données d’entraînement. Il est néanmoins inenvisageable d’être en mesure de simuler l’ensemble des conditions possibles à l’aide codes Monte-Carlo classiques.

Pour répondre à cette problématique, nous proposons de développer une méthode de génération de données par apprentissage d’un modèle de Deep Learning sur un nombre limité de simulations et de conditions. Ce modèle de Deep Learning a pour objectif d’être en mesure de générer de nouvelles données dans des conditions qui n’ont pas été données en entraînement, mais qui interpolent les conditions d’entraînement. Nous présenterons ici cette approche en détails et les résultats que nous en avons obtenus. Nous étudierons également la méthode d’identification ré-entraînée à partir des nouvelles données produites, en analysant ses performances dans des conditions de plus en plus diverses et variées.

Video

slides

LLMs : Evolution et Application Avancées : Du transformer à GPT-4 et au-delà 

Imed Magroune, CEA/Irfu/Dedip

29 septembre à 11h30, salle Cassini, bat 709, Orme-des-merisiers

Les grands modèles de langages (LLM) ont pris d’assaut le monde. Ces modèles super efficaces et performants constituent les merveilles modernes de l’intelligence artificielle. Avec la capacité de comprendre le contexte, de générer du texte et de converser de manière cohérente, ils seront bientôt le seul moyen de communication avec le monde numérique. Leur influence ne se limite pas au traitement du langage naturel, les architectures de "Transformers" trouvent également des applications croissantes dans la vision par ordinateur (Computer Vision).
Ce séminaire propose un tour d'horizon de l'évolution des LLMs, depuis l'émergence des architectures de "Transformers" et la publication mythique "Attention is All You Need", jusqu'aux modèles de pointe tels que GPT-4, PaLM2, LLaMA2, Orca et Platypus.
Nous aborderons spécifiquement ChatGPT, qui représente l'état de l'art en matière de modèles de conversation, et examinerons l'utilisation de "Code Interpreter" pour la génération et le débogage de code.
Le séminaire inclura également une introduction aux techniques d'ingénierie des prompts, comme le Fine-Tuning, CoT, GoT et Prompt Tuning. Nous présenterons un cas pratique qui illustre comment implémenter et personnaliser un modèle ChatGPT en local sur une carte graphique unique avec des données spécifiques.

Video

slides

Modélisation hybride par méthode d'apprentissage supervisé pour le couplage multi-échelle d'écoulements de gaz faiblement raréfiés en conduites

Dahia Chibouti, Université Gustave Eiffel

7 septembre  à 11h30, salle Cassini, bat 709, Orme-des-merisiers

Ce travail traite de l’importance de comprendre les écoulements de fluides et les transferts de chaleur dans des systèmes micro-électromécaniques (MEMS), en particulier dans le contexte des conduites de petites sections et de grandes extensions. Lorsque l’échelle caractéristique de l’écoulement est proche du libre parcours moyenne des molécules de gaz, des conditions aux limites spéciales doivent être considérées à proximité de la paroi, car le gaz n’est plus en équilibre thermodynamique.
De nombreux chercheurs utilisent des modèles basés sur des équations différentielles pour représenter ces comportements près de la paroi, tels que les modèles continus proposés indépendamment par Navier (1823) et ultérieurement par Maxwell (1879). Toutefois, ces modèles requièrent généralement la connaissance de paramètres qui dépendent de l’échelle moléculaire/atomique, ce qui peut être contraignant.
Pour résoudre ce problème, une approche hybride multi-échelle est proposée. Elle combine des simulations moléculaires près de la paroi avec des simulations continues (les équations de Navier-Stokes, résolues par des solveurs macro utilisant la méthode des volumes finis) dans le reste du domaine. Cependant, cette méthode s’avère coûteuse en termes de temps de calcul en raison du grand nombre de simulations moléculaires nécessaires.
Afin de réduire le nombre de ces simulations, des méthodes d’apprentissage supervisé [Bishop (2006); Rasmussen and Williams (2006)] par régression bayésienne et processus gaussiens ont été mises en place pour modéliser les réponses issues de la dynamique moléculaire, et permettre ainsi de transférer efficacement les informations entre la dynamique moléculaire et le milieu continu.
Dans la présente contribution, certains résultats concernant ce couplage associé à l’apprentissage sont illustrés pour des écoulements isothermes dans des microcanaux.

abstract

FVSOOM : Un modèle et une méthode de développement de systèmes d'aide à la décision et de bases de connaissances en chimie, biologie et en clinique médicale

Joël Colloc, CNRS/université du Havre Normandie

16 février  13 avril à 11h30 12h30, en zoom uniquement salle Cassini, bat 709, Orme-des-merisiers

FVSOOMM repose sur un modèle orienté objet spécifique fondé principalement sur la composition d’objets composants et d’objets jonctions contrairement à la plupart des modèles objets qui reposent sur la notion de classe d’objet. Pour chaque objet composé, on associe un espace vectoriel flou temporel qui exprime récursivement son évolution comme la somme des vecteurs de ses objets composants jusqu’aux objets simples qui sont définis uniquement par des attributs. Le vecteur de chaque objet simple est la somme des vecteurs de ses attributs dont la propriété est exprimée par une fonction sigmoïde normalisée sur un intervalle 
[-1,1] selon le domaine de définition établi par l’expert du domaine par exemple la température corporelle en °C : [35,41] ® [-1,1]. Cette approche a été utilisée pour élaborer des bases de connaissances dans des domaines très variés : en clinique médicale (cardiologie, neurologie, urgence toxicologique), en gestion (marketing), en psychologie cognitive (informatique émotionnelle), en sciences de l’éducation (tutorial d’élèves), en urbanisme (aide à la décision territoriale).

La méthode associée décrit les étapes de conception et de réalisation d’un système multi-agents d’aide à la décision (SMAAD). Le cycle de vie guide l’élaboration des composants connaissances de ce système, les processus de raisonnement et les interfaces nécessaires aux trois principales catégories d’utilisateurs (Experts Système, Experts des domaines de connaissances, Utilisateurs finaux). FVSOOMM repose sur l’analogie structurelle réalisée par le calcul des vecteurs associés  aux attributs, puis aux composants connaissances nécessaires aux différents objectifs de décision sélectionnés par le SMAAD. Différents exemples en biochimie, toxicologie, biologie et clinique médicale seront présentés afin de montrer l’unification nécessaire de ces domaines de connaissances pour élaborer une décision opérationnelle conforme aux besoins des utilisateurs. Une conclusion décrira les forces et les faiblesses de notre approche, les recherches en cours et les perspectives de ce travail notamment en matière d’éthique de l’utilisation de l’IA.

 

RAMP : Challenges de données et apprentissage automatique

François Caud, INRIA

31 mars à 11h30, IJCLab, Auditorium Joliot Curie, bat 100

RAMP est un outil logiciel de prototypage de code qui permet de proposer et de tester de manière collaborative des workflows de machine learning. Les data challenges mis en place par CDS/DATAIA sur la plateforme ramp.studio réunissent des centaines de participants afin de résoudre des problèmes de science grâce au machine learning.
Nous présenterons RAMP, la plateforme, des exemples d’évènements déjà déployés et comment se construit un challenge.

Video

FVSOOM : Un modèle et une méthode de dévelopement de systèmes d'aide à la décision et de bases de connaissances en chimie, biologie et en clinique médicale

Joël Colloc, CNRS/université du Havre Normandie

16 février  à 12h30, salle Cassini, bat 709, Orme-des-merisiers

FVSOOMM repose sur un modèle orienté objet spécifique fondé principalement sur la composition d’objets composants et d’objets jonctions contrairement à la plupart des modèles objets qui reposent sur la notion de classe d’objet. Pour chaque objet composé, on associe un espace vectoriel flou temporel qui exprime récursivement son évolution comme la somme des vecteurs de ses objets composants jusqu’aux objets simples qui sont définis uniquement par des attributs. Le vecteur de chaque objet simple est la somme des vecteurs de ses attributs dont la propriété est exprimée par une fonction sigmoïde normalisée sur un intervalle 
[-1,1] selon le domaine de définition établi par l’expert du domaine par exemple la température corporelle en °C : [35,41] ® [-1,1]. Cette approche a été utilisée pour élaborer des bases de connaissances dans des domaines très variés : en clinique médicale (cardiologie, neurologie, urgence toxicologique), en gestion (marketing), en psychologie cognitive (informatique émotionnelle), en sciences de l’éducation (tutorial d’élèves), en urbanisme (aide à la décision territoriale).

La méthode associée décrit les étapes de conception et de réalisation d’un système multi-agents d’aide à la décision (SMAAD). Le cycle de vie guide l’élaboration des composants connaissances de ce système, les processus de raisonnement et les interfaces nécessaires aux trois principales catégories d’utilisateurs (Experts Système, Experts des domaines de connaissances, Utilisateurs finaux). FVSOOMM repose sur l’analogie structurelle réalisée par le calcul des vecteurs associés  aux attributs, puis aux composants connaissances nécessaires aux différents objectifs de décision sélectionnés par le SMAAD. Différents exemples en biochimie, toxicologie, biologie et clinique médicale seront présentés afin de montrer l’unification nécessaire de ces domaines de connaissances pour élaborer une décision opérationnelle conforme aux besoins des utilisateurs. Une conclusion décrira les forces et les faiblesses de notre approche, les recherches en cours et les perspectives de ce travail notamment en matière d’éthique de l’utilisation de l’IA.

Video

Utilisation du computer vision pour le HPDA

Martial Mancip, CEA/Maison de la simulation

06 janvier à 11h30, Maison de la simulation, CEA-Saclay, Bat 565

Nous allons présenter un cas d'usage de la vision assistée par ordinateur avec de la visualisation scientifique pour l'analyse de données issues de calculs haute performance.

 

La production d'ensemble de simulations HPC découlant de variations paramétriques entraîne la nécessité d'analyser des très grands volumes de donnée en espace-temps.
Pour construire des métriques permettant de comprendre les évolutions des évènements physiques de ces ensembles, on a utilisé des réseaux profonds convolutifs multi-catégoriels supervisés avec de l'augmentation. On a basé notre apprentissage non pas sur les données physiques mais plutôt sur des images de visualisations scientifiques pour ne pas la faire dépendre des maillages des calculs.

On a appliqué ces techniques à des simulations d'exo-Jupiters et cela nous a permis de mieux comprendre certains cas et de faire des découvertes intéressantes.
On est en train d’appliquer des techniques d’encadrement qui vont nous permettre de faire des sauvegardes haute fréquence autour des évènements d'intérêt détectés au cours des simulation. 

Ces idées vont permettre de concevoir des boîtes à outils de post-traitements et d’analyses hautes performances à adapter à chaque physique vers les simulations exa-scale.

Video