Les IAG dans l'enseignement supérieur et la recherche : entre dilemme moral et question sociale
Bilel Benbouzid, uiversité Gustave Eiffel
Jeudi 18septembre à 11h30, CEA-Saclay, Orme-des merisiers, Bat 709, salle Rubin
L'introduction des intelligences artificielles génératives dans l'enseignement supérieur constitue un véritable point de bascule qui ébranle les fondements traditionnels de la déontologie universitaire. Cette transformation majeure interroge trois piliers essentiels de l'écosystème académique : l'intégrité scientifique, l'authenticité et l'autonomie intellectuelle. L'expérience récente de la start-up Sakana, dont le système d'IA a produit un article scientifique complet sans intervention humaine directe et réussi l'évaluation par les pairs, illustre parfaitement ce trouble dans l'auctorialité qui traverse désormais l'ensemble du champ académique. Face à ces technologies, les repères normatifs traditionnels perdent leur force prescriptive. L'intégrité académique se trouve mise à l'épreuve par l'impossibilité pratique de distinguer clairement entre usage passif et actif des IAG, rendant obsolètes les notions classiques de plagiat et de triche. Un texte peut désormais être formellement original tout en étant frauduleux, car non authentiquement produit par son auteur déclaré. Cette ambiguïté révèle que le problème excède la simple opposition entre bon et mauvais usage pour interroger la nature même de l'effort intellectuel légitime. L'enjeu de l'authenticité prend alors une dimension nouvelle. Dans un monde où l’enseignement et la recherche sont produits en collaboration avec des machines d’écriture, émerge une subjectivité hybride comparable à la figure du cyborg de Donna Haraway. Cette nouvelle forme d'authenticité ne réside plus dans une origine pure du texte, mais dans la capacité à comprendre et façonner les mécanismes d'écriture partagés entre humain et machine. Les IAG fonctionnent comme des co-auteurs implicites qui orientent subtilement les formes de pensée, soulevant la question fondamentale de ce qui constitue l'expression authentique de soi dans ce contexte technologique. L'autonomie, pilier éthique de l'enseignement supérieur, se trouve également redéfinie. Aylsworth et Castro (2024) proposent une éthique du non-usage fondée sur l'obligation morale de cultiver sa propre capacité de réflexion et de jugement. Pour eux, déléguer l'écriture à une IA revient à renoncer aux facultés mêmes qui rendent l'autonomie possible. Mais il existe une tension entre autonomie comme fin éducative et autonomie comme liberté de choix, qui résume le dilemme contemporain face aux IAG. Mais cette tension pose aussi la question de savoir « qui dispose réellement de la liberté de choisir de ne pas les utiliser ? ». Car cette liberté du non-usage devient elle-même un privilège social, dévoilant que derrière l'apparente égalisation des performances se cache une inégalité structurelle plus profonde. Les IAG véhiculent un habitus dominant reflétant les normes linguistiques des groupes sociaux favorisés. Tandis qu'elles semblent uniformiser l'accès aux compétences d'écriture, elles renforcent en réalité les hiérarchies existantes. A partir des résultats d’une enquête auprès des étudiants, je montrerai que les étudiants disposant d'un fort capital culturel perçoivent ces outils comme utilitaires et limitatifs, tandis que ceux moins dotés culturellement les utilisent pour accéder à un langage symboliquement valorisé, risquant de se placer en situation d'imposture culturelle. Cette dynamique pourrait accentuer les inégalités académiques : alors que les élites se reconvertissent vers des compétences que l'IA ne maîtrise pas encore, comme la pensée critique ou investisse davantage dans l’oralité, les plus précaires deviennent dépendants de ces technologies. Ainsi, les IAG redessine les contours du pouvoir académique et questionne les modalités futures de l'égalité des chances dans l'enseignement supérieur.
GeoTS: A time series classification framework to identify geological formations
Shwetha Salimath, Centrale-Supelec
Lundi 23 juin à 11h30, CEA-Saclay, Orme-des merisiers, Bat 709, salle Rubin
Studying the lithography of the Earth's subsurface in geoscience involves analyzing different geological formations to model and characterize reservoirs. This process uses drilled well measurements to connect specific geological formations or tops. Reservoir modeling is essential in geothermal, mineral mining, oil and gas, and carbon storage. Traditional well correlation algorithms are time-consuming and costly, but Deep Learning (DL) models have shown promising results. This paper presents GeoTS, a Python library that employs advanced time series classification DL models for well correlation. It uses drilling trajectory depth and gamma-ray well logs as inputs, predicting the depths of formations' tops. Gamma-ray signatures around these depths are extracted, cleaned, and clustered using Dynamic Time Warping (DTW) and machine learning models like HDBSCAN and OPTICS. The implementation includes various deep learning architectures (FCN, InceptionTime, XceptionTime, XCM, LSTM-FCN) and new models (LSTM-2dCNN, LSTM-XCM). The results indicate faster computation and higher accuracy than industry benchmarks, making this the first open-source benchmark for the well correlation task, to our knowledge.
Towards a better understanding of the genetics of the human cortical folding
Antoine Dufournet, CEA, Neurospin
Mardi 8 avril à 11h30, CEA-Saclay, Neurospin, Bat 145, Amphiteatre salle 183
How self-supervised deep learning help us understand cortical folding variability?
Joël Chavas, CEA, Neurospin
Mardi 4 mars à 11h30, CEA-Saclay, Neurospin, Bat 145, Amphiteatre
The human brain is folded, and its folding is highly variable among individuals. A long-standing aim in studying cortical folding is to understand and quantify if cortical folding relates to cognitive or clinically relevant parameters, like early-life factors or diseases. We now have available more than 100.000 brain images: this quantity of data makes the field mature for the application of recent Deep learning algorithms. I will present our approach, based on self-supervised algorithms (more precisely on Barlow Twins algorithms), to build regional latent spaces that we can then analyze. Simple linear algorithms applied to these latent spaces permit to identify folding patterns related to early-life factors, like handedness and birth weight.
Superconducting magnet design through multi-physics optimisation
Damien Minenna, CEA/irfu/DACM
Mardi 11 février à 11h30, CEA-Saclay, Orme-des merisiers, Bat 709, salle Cassini
Designing superconducting magnets presents a challenge due to their multi-physics complexity, diverse analytical tools, and often imprecise specifications. To streamline this process, we introduce ALESIA, a novel optimisation and data management toolbox developed at CEA-IRFU. ALESIA leverages advanced algorithms, including nonlinear programming techniques, evolutionary algorithms, active learning strategies, and surrogate modelling, to accelerate the design process. By intelligently exploring the parameter space, ALESIA enables rapid convergence towards optimal solutions while minimising computational cost. ALESIA’s flexible architecture allows integration with any physics simulation software, encompassing magnetic field calculations (OPERA), and mechanical analysis (CAST3M), but its applicability can be broadening beyond magnet design. Crucially, ALESIA’s automated optimisation loop simultaneously considers all stages – magnetism, conductor properties, mechanics, and quench behaviour – ensuring holistic and robust design solutions.