14 novembre 2017 à 1 janvier 2030
Fuseau horaire Europe/Paris

2019

Des chromosomes aux galaxies: segmentation d'image avec des réseaux convolutifs. 

Alexandre Boucaud, IN2P3

24 octobre 2019, 11h30, CEA-Saclay, bat 714 (ICE), salle visio 130 (RDC)

Dans cet exposé j'aborderai les réseaux convolutifs (CNN) très utilisés en traitement d'image. 

Je parlerai d'une application dans le cadre de l'astrophysique sur la séparation des galaxies superposées sur les images par effet de projection, utilisant un modèle particulier de réseau profond employé en bio-informatique pour distinguer les chromosomes dans les images.

Slides here


Utilisation des algorithmes génétiques pour la sélection de variables – Application à la recherche de biomarqueurs génétiques

Stéphane Gazut, DRT/LIST

10  octobre 2019, 11h30, CEA-Saclay, bat 714 (ICE), salle visio 1110

Dans le cadre de l’apprentissage statistique, le nombre de variables décrivant les exemples d’une base de données définit la dimension de l’espace d’observation. En dehors de la modélisation de process maitrisés dont on connait exactement les variables à considérer, la dimension de l’espace d’observation est en général (bien) supérieure à la dimension de l’espace intrinsèque du processus à modéliser et il faut alors être en mesure de réduire cet espace d’observation pour n’utiliser que l’information pertinente. La sélection de variables est l’un des moyens pour réduire cette dimensionnalité. Parmi les méthodes de sélection de variables, la sélection multivariée vise à identifier des groupes de descripteurs qui, pris conjointement, permettent de créer des modèles efficients. Si les données sont décrites par n variables, il y a 2n-1 groupes de variables possibles. Evidemment, il n’est pas raisonnable de tester toutes les possibilités compte tenu de la combinatoire mais la méthode des algorithmes génétiques, méthode d’optimisation combinatoire, peut être une solution pour identifier des groupes pertinents. Le séminaire fera un focus sur les grands principes de sélection de variables univariées et multivariées, présentera les algorithmes génétiques en général et leur utilisation pour identifier des groupes de variables en particulier. Enfin, le cadre applicatif de la recherche de biomarqueurs génétiques sera utilisé pour illustrer l’approche.

180704_computational-phenotyping_ET.pdf


Physical Oceanography meets Deep Learning: Forecasting Ocean Variables

Redouane Lguensat, CNES-IGE

1er octobre 2019, 11h30, CEA-Saclay, bat 714 (ICE), salle visio 1110

Inferring hidden equations governing dynamical systems from data has always been one of the challenging problems in the interplay between physics and data science. It was just a matter of time before the recent advancements in machine learning and in computational capacities come in hand and spark off a series of works dedicated to address this problem.

For the presentation, I would like to present an advection numerical model coded using differentiable operators thus permitting the use of automatic differentiation libraries (e.g. Tensorflow/PyTorch). This makes the model flexible and suited for parameter optimization, especially using neural networks.The relevance of the proposed architecture is illustrated through an example of a regression problem where we show how can we obtain the parameters of the potential vorticity equation using only consecutive scenes of Sea Surface Height. This can be of interest for finding the closest Quasigeostrophic-like approximation to a given ocean simulation model or help exploring the effect of adding new operators in the potential vorticity equation. The code we provide is suitable for GPU implementation and therefore can allow for faster execution and profit from the quick advancements in GPU developments.


Introduction aux modèles de krigeage par processus gaussiens - Apport la vérification des Outils de Calcul Scientifique.

Jean-Marc Martinez, DEN

13 juin 2019, 11h30, CEA-Saclay, bat 714 (ICE), salle visio 1110

Nous présenterons le principe des méthodes de modélisation par les techniques de krigeage sous l’angle des processus gaussiens. Leur utilisation largement développée dans le cadre de la simulation numérique est connue sous l’acronyme DACE, Design and Analysis of Computer Experiment. Nous montrerons une première contribution du krigeage à la validation d’un modèle numérique de thermohydraulique et une seconde application ayant permis de détecter des simulations numériques "erronées".  La dernière contribution du krigeage portera sur les stratégies adaptatives efficaces en optimisation (Efficient Global Optimization).

JMM_GF.pdf


The COSMIC Project: Tackling Problems in Biomedical and Astrophysical Imaging

Samuel Farrens, DRF, Dap

18 avril 2019, 11h30, CEA-Saclay, bat 714 (ICE), salle visio 1110

Magnetic Resonance Imaging (MRI) is the most powerful non-invasive technique for studying the human brain. Obtaining accurate and High Resolution (HR) images is of paramount importance for the early diagnosis of neurological disorders, such as Alzheimers. HR-MRI, however, requires prohibitively long scan times (over an hour) during which the motion of subjects significantly degrades the quality of the scans. This is particularly evident for younger subjects, such as newborns. Elegant acquisition strategies combined with cutting edge mathematical techniques like Compressed Sensing (CS) can significantly reduce the amount of time required to achieve HR images. The challenges faced for MRI are also relevant in an astrophysical context where e.g. radio images can be reconstructed using CS principles. 
The DRF funded COSMIC project brings together NeuroSpin, experts in biomedical imaging, and CosmoStat, experts in astrophysical imaging, to work on developing optimal image reconstruction tools using sparsity and deep learning. The culmination of the project being the development of the Python Sparse data Analysis Package (PySAP). During the talk I will present the objectives of the COSMIC project and the progress made in the development of PySAP.
 

Apprendre Julia pour un scientifique, est-ce que ça vaut la peine ?

Pavel Kalouguine, Université Paris-Sud

9 avril 2019, 13h, CEA-Saclay, bat 713, salle visio

Un langage de programmation pour le calcul scientifique doit permettre à la fois une modélisation rapide (pour tester différentes idées), et être suffisamment performant pour que le temps de test du code soit raisonnable. Jusqu’à maintenant ces deux conditions étaient incompatibles, et il était nécessaire d’utiliser deux langages différents, typiquement Python (avec numpy/scipy) ou Matlab pour la modélisation et la visualisation, et C/C++, voire Fortran pour les parties du code où la performance est critique. Le nouveau langage de programmation Julia (la première version stable est sortie en août 2018) vise en premier lieu à résoudre ce “problème de deux langages”. En outre, un amateur d’informatique théorique appréciera aussi un système de typage moderne et mathématiquement rigoureux (mais en même temps riche et extensible), la programmation générique, le style fonctionnel ou impératif au choix, homoiconicité etc.
 

 


 

Utilisation du machine learning en imagerie radio-isotopique per-opératoire 

Françoise Bouvet, IMNC, CNRS

28 mars 2019, 11h00, CEA-Saclay, Orme des merisiers, bat 709, RDC, salle Cassini

Dans le cadre de la conception de systèmes d’imagerie miniaturisés pour guider en temps réel le chirurgien dans la localisation et l’ablation précise des foyers tumoraux, une nouvelle génération d’imageurs per-opératoires basés sur la technologie des photomultiplicateurs silicium (SiPM) est en cours de développement au laboratoire. Ces photo-détecteurs offrent une avancée majeure en termes de sensibilité et de compacité. Au-delà du système de détection, la qualité des images obtenues dépend fortement du choix de la méthode de reconstruction de la position d’interaction des particules dans le scintillateur à partir des caractéristiques des signaux issus des SiPM.

Les méthodes classiquement utilisées sont soit peu précises soit coûteuses en temps de calcul. Je montrerai que l’approche par des algorithmes de machine learning permet de reconstruire les images avec une bonne résolution et une faible distorsion dans des temps compatibles avec l’imagerie temps réel. Je présenterai les résultats obtenus avec des réseaux multicouches et avec des réseaux de convolution 2D. Je montrerai également quelques fonctionnalités de la librairie Keras avec laquelle cette étude a été réalisée.

rn-cea-mars19.pdf


Utilisation du machine learning pour la prédiction de variables climatiques à partir de données

Adnane Hamid, CentraleSupélec

22 février 2019, 11h, CEA-Saclay, Orme des merisiers, bat 713, salle Copernic

Le stage que je poursuis consiste à prédire le climat en utilisant des techniques de Machine Learning.

Suite à l’article de Pathak et al 2017, il semblerait que les méthodes de Machine Learning sont prometteuses pour prédire des séries spatio-temporelles chaotiques. Ces méthodes de Machines Learning sont souvent basés sur des réseaux de neurones récurrents comme c’est le cas dans l’article de Pathak et al 2017. Il existe plusieurs variantes de réseaux de neurones récurrents, parmi lesquelles les réseaux LSTM (Long-short-term-memory) et les réseaux ESN (Echo state networks). Ce sont ces derniers qui ont été utilisés pour la prédiction de séries temporelles chaotiques dans l’article de Pathak et al 2017.

Ainsi, nous avons entrepris d'implémenter un algorithme basé sur ces ESN en python et de le tester sur les données de pression atmosphériques et de température. Ces réseaux de neurones peuvent observer l’évolution d’une ou plusieurs variables et essayer de prédire l’évolution de cette ou ces variables à la fin de l’observation. A l'heure actuelle, nous avons obtenu des premiers résultats pour la prédiction de l'évolution de la pression et de la température que nous vous présenterons dans ce séminaire. 

MachineLearningSéminaire_AH.pdf