Présidents de session
Présentations plénières: Gestion des données
- Michèle Sanguillon (LUPM)
Présentations plénières: Gestion de projets et développement
- Andrea Sartirana (CNRS)
Présentations plénières: ASR/Développement
- anthony gautier (CEA/irfu)
Présentations plénières: Calcul haute-performances
- Maude LE JEUNE (APC)
Présentations plénières: ASR/Développement
- Emmanuel Medernach (CNRS IN2P3 IPHC)
Présentations plénières: Acquisition haut-débit
- Francoise Bouvet-Lefebvre (IMNC)
Présentations plénières: Talks éclair et discussions
- Denis PUGNERE (IPNL)
Présentations plénières: RGDP - Émilie Masson (CIL / CNRS)
- Guillaume PHILIPPON (LAL - CNRS)
- Sébastien Gadrat (CC-IN2P3)
Présentations plénières: Discussion RGPD (Émilie Masson)
- Il n'a pas de président de session pour ce bloc
Participation in the development of scikit-learn (bibliothèque de Machine Learning pour python) and collaborative software development in general.
I will present the design of LISANode, a prototype end-to-end simulator for the LISA space mission.
The LISA mission is an ESA mission designed to detect gravitational waves produced by astrophysical and cosmological sources.
The purpose of LISANode is to provide a detailed and modular simulation of the instrument and of time-delay interferometry, which is a crucial pre-processing step.
The...
Pour le développement logiciel d'une partie du "Pipeline" de le l'observatoire CTA, nous avons utilisé la méthode Agile SCRUM pour la gestion de projet.
Je propose de faire un retour d’expérience sur l'utilisation de cette méthode SCRUM dans une équipe local de 7 personnes.
Le projet DIRAC@IN2P3, lancé en Janvier 2017, a pour objectif le développement de nouvelles composantes et fonctionnalités du logiciel DIRAC (http://diracgrid.org/), dans une optique de généralisation, afin de le rendre utilisable par une vaste communauté d’utilisateurs. DIRAC est un logiciel libre (sous licence GPL V3) de type interware pour gérer des ressources de calcul distribuées. Il est...
Le CCIN2P3 a ouvert en avril dernier un portail web destiné à fournir un point d'entrée aux services du Centre pour la communauté de ses utilisateurs. Ces derniers peuvent y consulter entre autres des informations sur leur compte, leurs jobs ou leur stockage.
Cette présentation a pour but de montrer comment nous avons réalisé ce service, conceptuellement et techniquement, et de recueillir des...
Le CC-IN2P3 stocke actuellement 80 Po de données sur plus d'une dizaine de technologies de stockage, pour une centaine de projets scientifiques. Partant du constat qu'il existait des améliorations à apporter dans la gestion des données, nous avons initié depuis plus de deux ans un travail autour du cycle de vie de celles-ci au CC-IN2P3.
Dans cette présentation, une vue globale de cette...
L'utilisation massive d'outils informatiques de collecte, de mesure et
de traitement a changé le rôle des données dans la production du travail
scientifique. Le mouvement de partage et ouverture des données scientifiques
(open data) est une réponse au besoin d'échanger le plus rapidement
possible les résultats obtenus et de surmonter les obstacles juridiques
et techniques à la circulation...
Présentation de la mise en place concrète d’une politique de gestion des données expérimentales au GANIL :
Rôle et responsabilité en matière de gestion des données
Gestion de l'Open Access (Utilisation d’iRODS et d’un Cloud temporaire)
Utilisation d’identifiants pérennes pour les jeux de données (DOI)
Catégorisation des données (Création de métadonnées)
Gestion du stockage et de l’archivage...
La problématique de la donnée et plus généralement de son management est au centre de beaucoup des préoccupations de nombreuses expériences scientifiques à venir et cela quel que soit la thématique. L’évolution du LHC vers le HL LHC autour 2024 mets en exergue cette problématique. Je me propose de faire un état des lieux des réflexions qui sont en cours autour ce sujet et notamment des pistes...
La communauté de la Physique des Hautes Énergies en général et le CC IN2P3 en particulier sont des utilisateurs de longue date de technologies de bandes magnétique. Ce média d’un faible cout unitaire est la solution privilégiée pour le stockage de masse de très grandes quantités de données. Lors des JI 2014 [1], j’avais retracé dans une rétrospective l’historique et les utilisations de telles...
La première version de Windows 10 (1607) déployée sur de nombreux postes de l'IRFU est maintenue par Microsoft uniquement jusqu'en octobre 2018.
L'IRFU a donc prévu une migration de ces postes au printemps/été 2018 vers Windows 10 1803.
Nous décririons les différentes procédures et tests que nous avons mis en place, sachant que ce type de mise à jour devra avoir lieu au minimum une fois par an.
L’IRFU a changé totalement sa méthode de gérer et d’installer les pilotes de machines Windows 10 ainsi que la mise à jour des bios en utilisant une nouvelle méthode appelée « Modern Drivers Management ». Cette méthode est basée sur un principe très simple de copie des pilotes dans un répertoire / package au nom très explicite de telle manière que le pc puisse facilement trouver et utiliser les...
Les grandeurs physiques des équipements de l’accélérateur Spiral2 doivent être enregistrées (archivées) à des fins de visualisation, d’extraction et d’analyse par les utilisateurs. L’enregistrement des grandeurs se fait dans un entrepôt de données. La visualisation et l’extraction sont faites grâce à un client en interface avec l’entrepôt de données.
L’objet de la soumission est de présenter...
Les services informatiques de nos laboratoires et centre de calcul ont besoin de superviser leurs ressources et leurs données. Cela nécessite parfois le développement d'applications sur mesure, adaptées à nos spécificités, et capables d’agréger, traiter et formater des données provenant de sources hétérogènes.
Lavoisier (http://software.in2p3.fr/lavoisier) est un framework qui permet de...
Pour la gestion d'un parc important de serveurs, nous avons besoin d'un outil de déploiement efficace et qui s'adapte à tous nos besoins.
- Doit être fonctionnel sans modification majeure.
- Doit s'intégrer dans le système d'information du CC.
- Doit prendre en charge les systèmes déjà déployés.
- Actif et largement utilisé dans des environnements équivalents à celui du CC
Je présente l'outil...
Le projet CTA (Cherenkov Telescope Array) [1] a pour objectif la construction et l'exploitation d'un réseau d’une centaine de télescopes Cherenkov situés sur les sites de La Palma (Canaries, Espagne) et Paranal (ESO, Chili). CTA ouvre une nouvelle ère dans l'astronomie gamma de très haute énergie. Un premier grand télescope est en cours d'installation à La Palma et l'acquisition des premières...
Nous allons voir à travers cette présentation :
- La gestion du réseau virtuel OpenStack depuis sa mise en place avec nova-network.
- Le développement du Cloud au CC et la nécessité d'une migration vers neutron.
- Les différentes fonctionnalités qu'offre neutron et leurs usages au CC.
- Les perspectives avec le développement du SDN/NFV.
Logiciel libre et open source est devenu incontournable dans la vie quotidienne. Il est même indispensable en informatique pour la physique. L’une des raison du succès est que les utilisateurs peuvent librement utiliser, étudier et modifier, redistribuer sans ou avec modifications le logiciel ainsi que contribuer au projet logiciel. Je présenterai un exemple d’une telle utilisation et...
A la suite d'un sondage adressé aux chefs de service informatique courant septembre, je dresserai un panorama des évolutions des infrastructures et des technologies de calcul utilisées à l'institut.
Je présenterai un programme de calcul section efficace de capture d'électrons dans les supernovæ.
— sa genèse
— son optimisation séquentielle
— ses tentatives de parallélisation avec OpenMP
— sa réécriture capitalisant sur une expression plus vectorielle
— l'utilisation des directives OpenACC
— les aspects de performance, de précision… et de lisibilité du code
— les aspect de formation des...
Go-HEP est un ensemble de bibliotheques et applications permettant d'écrire des codes d'analyse efficaces, concurrents et facilement déployables, en Go.
Dans une première partie, j'introduirai très rapidement les forces et faiblesses de Go, et donc les motivations pour l'écriture de Go-HEP
et sa mise à disposition de la physique des...
L'expérience ALICE au LHC est met à jour son control framework pour faire face aux conditions de prise de données prevues pour le Run-3, tant dans le domaine du volume que de la frèquence d'acquisition des données: ALICE-O2.
Ce nouveau framework regroupe les communautés "online" et "offline" (O2) autour d'une architecture distribuée basée sur l'échange de messages et la bibliothèque...
Dans le cadre du projet européen PRACE, présentation de la mise en place d'un workflow "agile" sur la ferme GPU du CC-IN2P3, grâce à la conteneurisation, afin d'évaluer un framework de Deep Learning.
Dans un contexte technologique ou les données sont très faciles à produire, l’analyse quant à elle devient de plus en plus complexe. Les plateformes de calcul telles que MapReduce (HADOOP) ont été largement adoptées pour les traitements analytiques. Bien que ces plateformes offrent un modèle de calcul hautement parallélisable et tolérant aux pannes matérielles, elles demeurent néanmoins pour...
Nous avançons inéluctablement vers les environnements de la programmation fonctionnelle (par exemple Scala), et vers les architectures distribuées (par exemple Apache Spark).
Il n'est pas question de perdre les acquis des développements accumulés avec les langages plus traditionnels (C/C++/Java/Python), qui ont produit très souvent nos solutions algorithmiques qui resteront précieuses.
Comment...
AstroLab est une organisation pour le développement d’outils logiciels de pointe pour aider à résoudre des problématiques big data dans la recherche.
Partager les efforts de R&D entre groupes, améliorer l’inter-opérabilité entre le milieu industriel et celui de la recherche dans les projets open-sources, et développer de nouveaux outils collaboratifs permettra aux équipes de recherche...
Smilei est un code de simulation de physique des plasmas de type Particle-In-Cell. Il est utilisé pour des simulations de jets relativistes astrophysiques aussi bien que pour la simulation d'accélérateur de particules par sillage laser.
C'est un code libre développé en collaboration avec des partenaires extérieurs physiciens et experts en calcul scientifique. Smilei est massivement parallèle...
Panorama du ML et utilisation dans la communauté Irfu / IN2P3
Le machine learning est un domaine en pleine expansion. Au sein de la DRF (direction de la recherche fondamentale), un groupe transverse qui regroupe des domaines aussi différents que l'étude du génome ou la physique des particules s'est constitué autour des méthodes d’apprentissage automatique. C'est de ce groupe, nommé InTheArt dont je vous parlerez.
L’expérience ProtoDUNE-DP (où "DP" signifie "Double Phase") est basée au CERN, elle est réalisée avec le support de la Neutrino Platform. Il s'agit de prototypes du détecteur de l'expérience DUNE (Deep Underground Neutrino Experiment), dont la construction vient de commencer aux États-Unis.
Le détecteur ProtoDUNE-DP va générer un flux de données jusqu’à 130Gb/s, non comprimé, auquel un...
Au Grand Accélérateur National d'Ions Lourds (Ganil), le résultat d'une expérience est le plus souvent sous forme de "runs" fichiers contenant les données brutes. Avant d''arriver formatées sur les disques durs, ces données ont étés transportées, travaillées, recalculées suivant un flux largement porté par Narval ou DCOD. Dans notre exposé, nous vous proposons de suivre ce flux de la...
bonjour
je peux vous présenter la chaîne d'acquisition qui a été développée pour la caractérisation des capteurs d'images infrarouges (H2RG) qui sont dans l'instrument NISP du satellite Euclid.
La campagne d'acquisition vient de se terminer et a durée environ 12 mois. Elle a générée environ 500To de données pour 20 capteurs. Son "efficacité" dépasse les 80% par rapport à une acquisition...
La HEP Software Foundation (HSF), créé en en 2015 pour organiser la collaboration autour du logiciel dans la communauté HEP et ses partenaires, a conduit un processus de prospective en 2017, appelé le Community White Paper. Cette présentation rappellera l'originalité du processus, les grandes lignes de la roadmap publiée fin 2017 et les actions de R&D en cours depuis.
Conclusion des Journées Informatique
Le Large Synoptic Survey Telescope (LSST) va bouleverser l’astronomie. Équipé du plus grand capteur photographique jamais conçu pour l’astronomie, ce télescope permettra de constituer le plus large et le plus profond relevé de l’univers. Dès sa mise en exploitation en 2022, le traitement des données produites par LSST nécessitera des dizaines de milliers de processeurs et une capacité de...