Ce cours aborde d'abord les notions générales liées à l'IA et met en place le vocabulaire et les définitions permettant de se repérer dans le domaine du Machine Learning. Il donne des éléments méthodologiques qui seront appliqués au cours des différentes sessions de la semaine de formation.
Dans un second temps, il propose des rappels sur les concepts probabilistes et statistiques, à la base...
Ce TP met en oeuvre des algorithmes de régression linéaire avec descente de gradient. Un exercice est aussi prévu sur un cas de classification en appliquant les concepts probabilistes vus au cours de la séance du matin.
L'objectif de ce TP est de se refamiliariser avec Python tout en mettant en application des premiers algorithmes de Machine Learning.
Cette session spécifique dédiée au Machine Learning supervisé explore les algorithmes utilisés à la base pour des problèmes de classification. Les Support Vector Machines (SVMs), les arbres de décision et méthodes d'ensemble associées sont des classes d'algorithmes intéressantes par leur explicabilité et interprétabilité. Ce cours décrit leur fonctionnement et leur utilisation.
Ce TP met en application les méthodes présentées la matinée : SVM, arbres de décisions et XGBoost. Il permet de se familiariser avec des bibliothèques Python très utilisées en Machine Learning, en particulier scikit-learn.
Cette session aborde un dernier algorithme supervisé, les K plus proches voisins (KNN), et met en lumière la problématique liée à la malédiction de la dimensionnalité. Le cours introduit ensuite les premières notions liées au Machine Learning non supervisé, et en particulier la réduction de la dimensionnalité. Elle montre des méthodes permettant de mettre en évidence des relations entre les...
Ce TP propose d'appliquer les méthodes abordées dans la première partie de la matinée : KNN, PCA et t-SNE.
Ce cours continue d'explorer les méthodes non supervisées en abordant les problématiques de clustering. Ce type d'approche a pour objectif de mettre en évidence des groupes de données présentant des similarités, et il rassemble un grand nombre de méthodes, dont les principales seront présentées dans le cadre de cette session.
Cette séance de TP met en application des méthodes de clustering : les K-Means, DBSCAN et les Gaussian Mixtures.
Cette seconde partie de la semaine se focalise sur les approches de Deep Learning. Ce cours introduit les modèles à la base de l'apprentissage profond : les réseaux de neurones. Il montre les principes mathématiques à la base de ces modèles et leur apprentissage. Enfin, il aborde leur utilisation dans le cadre de l'analyse de données de type image à travers les réseaux de neurones convolutifs.
Cette session de TP propose de développer des premiers réseaux de neurones appliqués à la reconnaissance d'images sur une base de données très classiquement utilisée en Deep Learning : MNIST pour la classification d'images de chiffres. Elle permet de se familiariser avec une des bibliothèques principales du Deep Learning : TensorFlow, ainsi que la surcouche de haut niveau Keras.
Cette session introduit les notions de quantification d'incertitudes en Deep Learning, fondamentales pour garantir la fiabilité des modèles. Ce sujet reste un problème ouvert dans la littérature sur le Deep Learning, et le cours propose de définir les concepts associés et d'explorer certaines méthodes de l'état de l'art.
Cette séance de TP propose de continuer l'implémentation des réseaux de neurones vues dans la matinée, en particulier en abordant les réseaux de neurones convolutifs. Pour celles et ceux qui seront suffisamment avancées et à l'aise avec les premiers exercices, des TP supplémentaires sont proposées pour aborder des concepts plus avancés, comme les auto-encodeurs, la quantification...
Cette session s'intéresse à des modèles avancés fondés sur les réseaux de neurones. Il aborde en particulier les Graph Neural Networks (GNNs), vus comme une généralisation des réseaux de neurones convolutifs pour des données qui peuvent se représenter sous forme de réseau. Puis, il introduit les modèles Transformers, à la base des algorithmes de traitement du langage naturel, en plein essor...
Du fait du coût calculatoire des entraînements de ces modèles avancés, des démonstrations sont proposées à la place des séances de TP. Cette séance de démo s'intéressera plus particulièrement à HuggingFace, qui est une plateforme de modèles de fondation utilisé pour aborder des problématiques variées en IA.
Cette dernière séance se concentrera sur l'IA générative, qui permet entre autres de générer du contenu réaliste, comme des fausses images. Le cours abordera la problématique de la génération de données à haute dimension et les méthodes, fondées sur les réseaux de neurones, qui ont été développées pour l'aborder, comme les Variational AutoEncoders, les Generative Adversarial Networks, les...
Cette séance de démonstration montrera la mise en œuvre de modèles de génération d'images, et le couplage avec des modèles de traitement du langage pour effectuer de la génération conditionnelle.
Cette séance de clôture permet d'effectuer ensemble le bilan de la semaine et de revenir sur les points méthodologiques essentiels. Elle sera l'occasion aussi d'échanger sur les dernières questions des participants et participantes.