10<SUP><font size=-1>èmes</font></SUP> Journées Informatique de l'IN2P3-IRFU

Europe/Paris
VVF Villages Le Grand Lioran

VVF Villages Le Grand Lioran

15800 Saint-Jacques-des-Blats
Description

Les Journées Informatique de l'IN2P3-IRFU réunissent tous les deux ans les informaticiens de l'IN2P3 et de l'IRFU pendant quatre jours. 

Cette année les journées informatiques sont organisées par le Laboratoire de Physique Corpusculaire de Clermont-Ferrand au VVF Villages Le Grand Lioran.

Ces journées se veulent un lieu de rencontre de la communauté des informaticiens de l'IN2P3 et de l’IRFU. Elles abordent tous les aspects de la production de programmes, de la mise en œuvre et de l’utilisation de l’informatique au sein de la communauté de la recherche en physique des particules et astroparticules et en physique nucléaire.
Elles sont aussi l'occasion de rencontre avec les autres communautés d'informaticiens de l'enseignement supérieur et de la recherche, notamment par l'intermédiaire des réseaux de métier.   

Nous retrouverons lors de cette édition des Journées Informatique, les formats de présentation habituels, à savoir des présentations longues (20 minutes), des présentations éclairs (5 minutes), des posters interactifs (ou pas) ainsi qu’un poster par laboratoire pour décrire les activitées du service informatique.

Comme en 2014 des ateliers techniques seront proposés.
Pour renforcer encore le caractère participatif des JI l'édition 2016 proposera également des sessions de discussion par petits groupes de six personnes maximum sur des sujets divers
    


Les Journées Informatique sont organisées par le RI3, le Réseau des Informaticiens de l'IN2P3 et de l'IRFU.

Les précédentes éditions des JI sont disponibles ici

<iframe src='http://webcast.in2p3.fr/live/embed-lsst_school_workshop_getting_ready_to_do_science_with_lsst_data&autostart=false' width='600' height='337' frameborder='0' scrolling='no'></iframe>

 

Participants
  • Adil Khalfa
  • Adrien Ramparison
  • Albertine Dubois
  • Alexandre LIEGE
  • Alexandre Perrier
  • Anthony Gautier
  • Antoine Pérus
  • Arnaud CHIRON
  • Benoit DELAUNAY
  • Bernard Boutherin
  • Catherine Biscarat
  • Catherine PINTY
  • Catherine Seznec
  • Cedric Muller
  • Christian Arnault
  • Christian Bonnin
  • Christian Helft
  • CHRISTIAN OLIVETTO
  • Christophe Diarra
  • Cécile EVESQUE
  • Damien CHAPON
  • David Chamont
  • David Zwolinski
  • Denis Pugnère
  • Dirk Hoffmann
  • Dominique Bonnet
  • Dominique Mège
  • Edith Knoops
  • Eduardo Sepulveda
  • Eric Chabanne
  • Eric Fede
  • Eric Legay
  • Fabian Lambert
  • Fabio Hernandez
  • Fabrice Jammes
  • Fouad Yahia
  • Foudil BRÉTEL
  • Francoise Lefebvre
  • François Legrand
  • François Talour
  • Françoise Virieux
  • Frederique CHOLLET
  • Frédéric Girault
  • Frédéric Melot
  • Grégory Monté
  • Grégory Perrin
  • Guillaume Lalaire
  • Guillaume PHILIPPON
  • Gérard Marchal-Duval
  • Hadrien Grasland
  • Jean-Claude Chevaleyre
  • Jean-Francois Blanc
  • Jean-Louis Coacolo
  • Jean-Marc Colley
  • Jean-Marc Santoni
  • Jean-Michel Barbet
  • Jean-Michel Gallone
  • Jean-Paul Le Fèvre
  • Jean-René Rouet
  • Joël Surget
  • Justine Yuan
  • Jérémie Jacob
  • Jérôme Odier
  • Khalil Chawoshi
  • Laure-Amélie Couturié
  • Laurent Caillat-Vallet
  • Laurent Fortin
  • Laurent Pérochon
  • Leslie-Alexandre DENIS
  • Marc Nicolas
  • Martin Souchal
  • Maude Le Jeune
  • Michel Jouvin
  • Michel Lastes
  • Michèle Sanguillon
  • Moufida Dziri-Marce
  • Nicolas CLEMENTIN
  • Nicolas Dosme
  • Nicolas Fournials
  • Nicolas Menard
  • Nicolas Rudolf
  • Olivier Drevon
  • Pascal Meyrand
  • Pascale Hennion
  • Patricia Warin-Charpentier
  • Patrick Le Jeannic
  • Patrick Sizun
  • Philippe Chassagny
  • Philippe Gauron
  • Philippe Séraphin
  • Pierre Aubert
  • Pierre Mounier-Kuhn
  • Pierre-Etienne Macchi
  • Pierre-François Honoré
  • Pierre-Yves Duval
  • Pierrick LE CORRE
  • Piotr NIKIEL
  • Roland BODA
  • Samuel Viscapi
  • Sebastien Binet
  • Sophie Nicoud
  • Sylvain Reynaud
  • Sébastien Gadrat
  • Sébastien Geiger
  • Thierry Le Flour
  • Thierry Mallet
  • Thierry Mouthuy
  • Thomas Audo
  • Thomas Roulet
  • Valérie Givaudan
  • Vanessa Hamar
  • Vincent Lafage
  • Volker Beckmann
  • Xavier Grave
  • Yann Aubert
  • Yoann Kermorvant
    • 14:45
      Accueil
    • Bienvenue
      Président de session: M. Eric Fede (LAPP IN2P3/CNRS)
      slides
    • Ouverture Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: M. Eric Fede (LAPP IN2P3/CNRS), Mlle Maude LE JEUNE (APC)
      • 1
        Mot de la direction LPC
        Orateur: Dominique PALLIN (LPC)
      • 2
        Vision de la direction IN2P3 sur l'informatique et le calcul
        Présentation et discussions autour du changement de direction et d'organisation récents mis en place.
        Orateurs: Dr Volker Beckmann (CNRS / IN2P3), M. christian olivetto (CNRS/IN2P3)
        Slides
      • 3
        CCIN2P3 Enjeux, bilan et perspectives
        CCIN2P3 Enjeux, bilan et perspectives
        Orateur: Pierre-Etienne Macchi (CC-IN2P3)
      • 4
        Activités des réseaux Instrumentation : DAQ & Slow Control
        Cette présentation sera scindée en 2 parties, elle pourra donner lieu à une discussion dans le cadre même de ces JI2016, l'idée étant, bien évidemment, de renforcer les liens des 2 réseaux Instrumentation de l'IN2P3 proches de la thématique "Online" avec le réseau RI3, réseau des informaticiens et de collaborer à la frontière entre informatique et électronique. Dans le cadre des activités du réseau DAQ, un certain nombre de solutions communes sont en cours de définition tant au plan matériel que logiciel. L'objectif est de disposer d'un tronc commun modifiable par chaque développeur selon le contexte de son projet, et de façon à accélérer son propre développement. L'objectif affiché du travail au sein du réseau DAQ consiste à élaguer le champs des possibilités pour aboutir à un ensemble plus facile à gérer par une communauté. Le réseau Slow Control cherche à identifier des points communs dans l’approche et la conception d’un système de contrôle-commande au sein de l'Institut afin d'élaborer une sorte de référentiel IN2P3. Même si il existe clairement deux schémas d’intégration et de développement du contrôle-commande, l'objectif est de travailler sur une ou plusieurs problématiques communes tout en s'intéressant à ce qui se fait à l'extérieur.
        Orateurs: Eric Chabanne (LAPP/service electronique), Pierre-Yves Duval (CPPM)
        Slides
      • 5
        Du ‘calcul électronique’ au ‘calcul intensif’: soixante ans d’ordinateurs dans la recherche nucléaire française
        résumé à suivre (juillet-août)
        Orateur: Dr Pierre Mounier-Kuhn (CNRS & Université Paris - Sorbonne)
    • Piscine numérique Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: Antoine Pérus (Cnrs/In2p3/Lal), Dr David Chamont (LAL - IN2P3 - CNRS), Dr Sebastien Binet (LPC/IN2P3)
      slides
    • 20:00
      Repas
    • ASR: 1 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: M. Bernard Boutherin (LPSC), M. Cedric MULLER (IPHC)
      • 6
        Puppet: C'est vous qui tirez les ficelles!
        De plus en plus de laboratoires IN2P3/IRFU se tournent vers Puppet pour la configuration de serveurs voire de postes de travail, surtout lorsqu'il s'agit de gérer un ensemble de configurations relativement homogènes (clusters de calcul et de stockage). Alléchés par la promesse d'une large librairie de modules tout prêts, les ASR sont nombreux à vouloir utiliser le produit. L'objectif de la présentation est d'aider les ASR à comprendre quel est l'écosystème qu'il est souhaitable d'installer avec Puppet pour avoir une installation permettant de tirer profit des modules externes, mais également une installation évolutive et facile à maintenir. A terme, l'ambition est de fournir un véritable « Puppet starting kit » pour partir du bon pied. Cette présentation fait écho à l'excellente formation qui s'est déroulée en novembre 2015 au CCIN2P3. Elle doit beaucoup aux conseils et la contribution de plusieurs experts de notre communauté.
        Orateur: M. Jean-Michel Barbet (Subatech)
        Transparents
      • 7
        Cluster de Virtualisation Haute Disponibilité avec Redhat Cluster Suite
        Redhat Cluster Suite (RHCS) permet de créer un cluster de virtualisation haute disponibilité (High Availability). A l'IPNO RHCS a été déployé sur deux noeuds Dell R620 en mode actif-actif permettant la migration à chaud des VM. Par ailleurs en cas de défaillance d'un des deux noeuds, le noeud vivant redémarre automatiquement les VM du noeud absent. Les images des VM sont installées sur des volumes LVM reposant sur DRBD (Distributed Replicated Block Device). DRBD assure la replication des blocs entre les deux noeuds via une liaison dédiée 10Gb permettant ainsi un mirroring des données sur les deux noeuds. DRBD évite le recours à un stockage de type SAN ou NFS pour stocker les images des VM. Les 14 VM gérées actuellement (des services de la grille de calcul) tournent sous KVM. Un mécanisme de fencing assure qu'une VM ne peux jamais être démarrée en même temps sur les deux noeuds en cas de perte de connectivité entre les deux neouds (split brain). Les scripts maison, les utilitaires et les images ISO sont sauvées dans une partition GFS2 sous Clustered LVM au dessus de DRDB. Le cluster est en production depuis fin Décembre 2014 sous Linux SL 6.5.
        Orateur: M. Christophe DIARRA (IPN ORSAY)
        Transparents
      • 8
        Salle de TP Virtuelle
        Afin de profiter de notre cluster de virtualisation, de faciliter le travail de l'équipe support et de réutilser de vieux portables, nous avons créé un nouveau service au LAPP : "Salle de TP virtuelle". Je présenterai l'infrastructure matérielle, les solutions qui ont été mises en place, puis je finirai par un petit bilan des premiers cas d'utilisation.
        Orateur: Philippe SERAPHIN (IN2P3/LAPP)
        Transparents
      • 9
        Migration des plateformes NIS
        Présentation de la nouvelle plateforme d'annuaire mise en place à l'IRFU. Cette solution permet de répondre aux problématiques de l’ancienne infrastructure basée sur NIS : - Centralisation des données (un seul "cluster" d'annauire). - Sécurisation des données (SSL/TLS). - Mot de passe unique (Windows/Linux). - Système redondant (4 serveurs/VMs). Jusqu’à présent les comptes Unix et Windows étaient gérés respectivement via un annuaire NIS et Active Directory. Cette double gestion nous imposait un workflow lourd (ouverture du compte sous unix puis ouverture ous Windows/AD) à la création des comptes et tout au long de la vie du compte. En pratique les comptes Unix n’étaient pas gérés correctement. De plus NIS étant un service obsolète et très mauvais du point de vue de la sécurité nous avons décidé de ne plus avoir qu’un seul système de comptes sous Active Directory. Pour réaliser cela il a fallu réaliser plusieurs choses : • Unifier les comptes Windows et Linux (login name, groupes, appartenance aux groupes, …) existants. • Gérer l’ensemble des informations NIS sous Active directory : les maps pour le montage des espaces NFS et l’ensemble des attributs UNIX (uid, gid, shell, rep. home) • Migrer l’authentification de l’ensemble des services Linux de NIS vers LDAP/Kerberos d’Active Directory (mail, serveurs interactifs, GLPI, web, svn, Owncloud, …) • Développer une application web de gestion des comptes qui alimente l’annuaire LDAP d’AD Le projet a été mené par un ingénieur système Linux (qui a travaillé sur AD comme sur il l’aurait fait sur un annuaire LDAP « classique ») et par un ingénieur système alternant qui a développé l’application web (UTENTOMATIC).
        Orateur: Valérie Givaudan (LAL)
        Transparents
    • Eclair: 1 Salle Cheminée

      Salle Cheminée

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: M. Guillaume PHILIPPON (LAL - CNRS), M. david zwolinski (cnrs)
      slides
      • 10
        Entre blog et IRC : Slack
        L'outil Slack (slack.com) a récemment fait apparition sur nos radars. Il semble très intéressant, peut-être qu'on pourrait même l'exploiter à titre d'essai / d'illustration. Dans ce cas, il faudrait prévoir notre présentation en début des JI pour expliquer comment cela marche (ji.slack.com). C'est un bon moyen pour impliquer les gens à distance via un chat non-existant ; à voir dans le contexte du webcast, selon s'il est possible ou pas. Il y a par ailleurs la collaboration IceCube qui l'utilise de manière professionnelle (c'est-à-dire ils ont payé le service amélioré de Slack) ; on essaiera d'en savoir plus. Il faut voir, si on peut établir un lien avec les présentaitons "outils collaboratifs" du CEA et de LSST.
        Orateurs: Dr Dirk Hoffmann (Centre de Physique des Particules de Marseille), Jean-Paul Le Fèvre (CEA Irfu)
        Slack du RI3
        Transparents
      • 11
        Les rencontres jDev en 2017
        Le réseaux DevLOG organise la quatrième édition de la rencontre nationale biannuelle des développeurs de logiciels dans le domaine de l'Enseignement Supérieur et de la Recherche du mardi 4 au vendredi 7 juillet 2017 à Marseille. Cet événement a vu augmenter le nombre de ses participants d'édition à édition. Plus de 500 personnes sont attendues à Marseille l'année prochaine. Nous nous proposons de faire passer un bref message de la part du comité d'organisation sur l'était de l'organisation, les liens et attentes vis-à-vis du RI3 et l'état d'avancement du programme.
        Orateur: Dr Dirk Hoffmann (Centre de Physique des Particules de Marseille)
        Site des jDev17
        Transparents
      • 12
        Interface Graphique Web de Contrôle Commande pour AERA / AUGER
        Le projet AERA de l'expérience AUGER, installée dans la pampa argentine, consiste à utiliser un réseau de 160 antennes radio. Nous avons développé une interface graphique permettant de surveiller l'état du réseau, gérer les runs et les logiciels d'acquisition ainsi que de commander les antennes. Sa spécificité est d'avoir été implémentée sur le Web. Elle utilise les technologies AJAX / PHP et est actuellement en production.
        Orateur: M. Frédéric Melot (LPSC)
        Transparents
      • 13
        GitLab CI
        Vous connaissez tous gitlab.in2p3.fr, le clone de GitHub pour les collaborateurs des projets de développements de l'IN2P. Avec GitLab est fourni maintenant une fonctionnalité d'intégration continue. Cela permet d'exécuter de façon automatique des tests, des builds et des déploiements. Ceci sera le teaser de la fonctionnalité.
        Orateur: M. Jean-René Rouet (CC-IN2P3/CNRS)
        Transparents
      • 14
        Bilan de l'utilisation du framework Symfony2 pour le développement d'applications Web au LAL.
        Résumé: Nous avons adopté Symfony2 pour la refonte de 2 Applications Web en 2010. Six ans après, nous pouvons évaluer les bénéfices de ce framework pour faciliter l’évolution des applications et le démarrage de nouveaux projets.
        Orateur: Mlle Justine YUAN (LAL)
        Transparents
      • 15
        RabbitMQ : un protocole de messagerie
        Dans le cadre du projet Svom nous sommes amenés à utiliser une bibliothèque de messagerie pour orchestrer l'ensemble des tâches à effectuer quand le satellite nous transmettra ses données. Nous avons testé le protocole implémenté RabbitMQ. Nous présenterons nos premiers résultats.
        Orateur: Jean-Paul Le Fèvre (CEA Irfu)
        Transparents
      • 16
        Outils collaboratifs CEA
        LE CEA, traditionnellement très fermé, a mis en place ces derniers mois certains outils collaboratifs utilisables aussi par des collaborateurs non CEA. En particulier, le CEA a installé des serveurs Microsoft SharePoint 2013 sur un réseau partagé, basé sur un Active Directory spécifique afin de créer des sites de partages de contenu, d'informations... ouvert à des personnes non CEA. Il est en train aussi d'installer une forge pour le développement logiciel.
        Orateur: M. joel surget (CEA/Saclay IRFU)
        Transparents
      • 17
        Chartbeams : une carte intéractive des noyaux pour le GANIL
        Cette carte, dans son nouvel habit, se veut un outil interactif fournissant, de façon rapide et compréhensible, les données et caractéristiques des faisceaux produits dans les installations du GANIL. Présentation de l’outil ; Initiée en 2006 avec les SHE, une première version fait son apparition en 2011. En 2013, une version « Européenne » ChartECOS voit le jour. 2015 une nouvelle carte est proposée à la communauté avec intégration des données SPIRAL2.
        Orateur: M. Laurent Fortin (GANIL)
        Transparents
      • 18
        Développement et évaluation d’une méthode de reconstruction par réseau de neurones pour l’imagerie radio-isotopique
        Dans le cadre de la mise au point d'instruments pour guider le chirurgien en temps réel dans la localisation et l’ablation précise des foyers tumoraux, une nouvelle génération de détecteurs per-opératoires basés sur la technologie des photomultiplicateurs silicium est en cours de développement. Au-delà du système de détection, la qualité des images obtenues dépend fortement du choix de la méthode de reconstruction de la position d’interaction des particules dans le détecteur à partir des caractéristiques des signaux physiques générés. Outre permettre de reconstruire les images avec une bonne résolution et une faible distorsion, la méthode retenue doit être opérationnelle pour un système d’imagerie temps réel afin d'être intégrée dans le logiciel d’acquisition existant (Qt/C++). Nous avons mené une étude basée sur l'approche par réseaux de neurones. Pour cela, une base de signaux d’évènements de caractéristiques connues a été générée afin d'apprendre au réseau à associer une position à un signal donné. Après cette phase d'apprentissage, le réseau est en mesure de généraliser à des signaux inconnus. Nous proposons de présenter les outils développés et testés pour mener cette étude ainsi que les principaux résultats obtenus en imagerie beta et gamma.
        Orateur: Mme Françoise Lefebvre (IMNC CNRS)
        Slides
      • 19
        Méthode de compression polynomiale
        L'expérience CTA sera le plus grand observatoire d'astronomie gamma au monde. Elle produira un flux de données 1000 fois plus important que l'expérience précédente H.E.S.S., soit 69 GO/s qui devront être transférées vers les centres de calculs avec une ligne à 10 Gb/s. Un défit majeur de cette expérience est la compression sans perte des données brutes. Nous présenterons une méthode de compression innovante adaptée aux signaux dominés par un bruit gaussien. Les algorithmes utilisés dans cette méthode permettent une utilisation optimale du processeur afin de garantir un temps de compression et de décompression meilleur que les méthodes actuelles.
        Orateur: M. Pierre Aubert (LAPP)
        Transparents
    • Eclair: 2 Salle Cheminée

      Salle Cheminée

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: M. Fouad Yahia (I.P.N.Orsay), M. Guillaume PHILIPPON (LAL - CNRS)
      slides
      • 20
        Control room pour AUGER
        Afin de diminuer les voyages couteux vers l'Argentine, le LPSC est en cours de préparation d'une salle de contrôle à distance pour l'expérience AUGER. Cette salle dédiée sera équipée de trois ordinateurs et de 10 écrans et permettra de participer aux shifts de l'expérience à distance.
        Orateur: M. Frédéric Melot (LPSC)
        Transparents
      • 21
        Le CEA dans la fédération Renater
        Jusqu'a maintenant, le CEA utilisait des comptes CRU pour accéder aux services Renater. LE CEA devrait enfin rentrer en partie dans la fédération d'identité renater courant 2016. La présentation portera sur les choix du CEA et le basculement des comptes CRU en comptes standards.
        Orateur: M. joel surget (CEA/Saclay IRFU)
        Transparents
      • 22
        agata : de GPFS à Ceph
        Depuis le début d'Agata, les données de l'expérience étaient collectées sur une baie de disques FC hébergeant un système de fichier GPFS. Le système ayant épuisé toutes les extensions de garantie possible, il était nécessaire de trouver un remplaçant. Coût, performances, stabilité, facilité de maintenance, Ceph pouvait-il répondre à ces éléments dans le cadre d'un projet de recherche comme Agata?
        Orateur: M. Yann Aubert (IPNO)
        Transparents
      • 23
        La gestion des dépôts RPM avec Pulp
        Pulp est le projet upstream de Red Hat Satellite 6 en matière de gestion de dépôts (RPM mais aussi modules Puppet, images Docker, ...). Rapide présentation du nouveau compagnon de Puppet et Foreman dans le déploiement et la gestion de parcs Red Hat et dérivés.
        Orateur: M. Nicolas Fournials (CC-IN2P3)
        Transparents
      • 24
        Summer : Stockage mutualisé
        Summer est une infrastructure de stockage mutualisé de l'UGA (Université Grenoble Alpes) implantée sur le domaine universitaire de Grenoble. 3 data center (primaire, réplication et sauvegarde) basés sur une solution NetApp fournissent de la volumétrie aux divers laboratoires et services de l'UGA et également à quelques structures extérieures (IUT, domaine de la santé...). Le LPSC participe à ce projet et a acquis une volumétrie de 60 TO sur cette plateforme, notamment pour les home directory des utilisateurs et la sauvegarde des datastore des machines virtuelles.
        Orateur: M. Pascal Meyrand (LPSC / IN2P3)
        Slides
      • 25
        Retour d’expérience de l’utilisation du plugin pnp4nagios pour visualiser les données de performances des sondes de Nagios.
        Au cours de cette présentation j’aborderai l’installation de PNP4Nagios sous CentOs7 et Nagios Core 4 pour récupérer les informations de performance des plugins Nagios, puis je détaillerai la possibilité de visualiser ces informations par serveurs ou par services, ainsi que la création de vues spécifiques avec des données issus du service de supervision de l’IPHC.
        Orateur: M. sebastien geiger (IN2P3)
        Transparents
      • 26
        Sauvegarde des données locales des postes clients
        La sauvegarde des données stockées localement sur nos postes clients est souvent sous-estimée. Casse matérielle, suppression non souhaitée, vols, aucun utilisateur n'est à l'abri d'une telle mésaventure. De quelles solutions disposons nous pour nous prémunir de la perte de telles données ? Comment s'éviter des procédures de restauration pouvant être lourdes et coûteuses ?
        Orateur: M. Frederic GIRAULT (LAPP Annecy)
        Transparents
    • 10:30
      Pause
    • Atelier: 1 Salle Cheminée

      Salle Cheminée

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      • 27
        Atelier Sécurité
        Cet atelier permettra aux participants dans une première partie de mettre en évidence des vulnérabilités affectant un serveur Web classique . Seront évoqués alors : - Les problèmes de configuration et leurs conséquences : arborescence trop permissive, compromission de données par écritures - La résistance aux intrusions par injection de code : injections SQL, injection système - Les failles du type Cross-Site Scripting (XSS) Une seconde partie sera consacrée à la sécurité de navigateurs courants. Les points abordés seront : - Cookies traçant (Third-party cookies) - Traçabilité du navigateur (fingerprinting) - Détournement et vol de session Cet atelier disposera de 5 à 6 machines clientes virtuelles, pouvant accueillir chacune un binôme. Les participants devront simplement disposer d’un pc portable équipé d’un client SSH et d’un serveur X .
        Orateurs: M. Bernard Boutherin (LPSC), M. Fouad Yahia (I.P.N.Orsay), M. Jean-Michel Barbet (Subatech), M. Yoann KERMORVANT (LPC CAEN), M. david zwolinski (cnrs)
    • Atelier: 2 Salle Tatin

      Salle Tatin

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      • 28
        Atelier IPV6
        Dans cet atelier vous étudierez le format des adresses IPv6, les différents types d'adresses (locales, globales...), les mécanismes de configuration d'IPv6. Vous verrez en pratique comment cela fonctionne grâce à des machines et routeurs virtuels.
        Orateur: M. Laurent Caillat-Vallet (CC-IN2P3)
        Transparents
    • Offline: 1 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: Antoine Pérus (Cnrs/In2p3/Lal), Mlle Maude LE JEUNE (APC)
      • 29
        DJANGO et PyQt4 : technologies Python pour la réalisation d'une base de données de simulations numériques en astrophysique
        Le framework de développement d'application web DJANGO (Python) est utilisé pour l'implémentation d'une base de données de simulations numériques en astrophysique, appelée CoastDB (online). Le modèle de données suit fidèlement le standard SimDM de l'observatoire virtuel international (IVOA). Le système d'ORM de DJANGO calque ce modèle de données dans une base MySQL. Le remplissage de cette base de données est facilité par une interface graphique Horus (offline), implémentée en PyQt4 (binding Python à la librairie Qt4), et qui permet d'exporter des données réduites issues des simulations numériques réalisées par les astrophysiciens directement dans un format téléchargeable sur l'application web CoastDB.
        Orateur: Dr Damien CHAPON (CEA)
        Transparents
      • 30
        LSST ou la numérisation de l’Univers
        L’IN2P3 participe activement à plusieurs volets du projet Large Synoptic Survey Telescope (LSST). Actuellement en cours de construction, ce grand instrument est conçu pour effectuer le relevé des objets célestes le plus complet jamais entrepris. Une caméra numérique de 3.2 Gigapixels installée dans un télescope de 8.4m de diamètre localisé au Chili permettra de capturer des images à très haute résolution du ciel observable depuis l’hémisphère sud. L’ensemble du ciel sera numérisé toutes les 4 nuits. Des processus automatisés de détection et de caractérisation des objets célestes permettront de constituer un catalogue astronomique qui sera progressivement raffiné, à partir du début des opérations programmé pour l’année 2022. Les images et le catalogue produits par l’instrument seront mis à disposition des chercheurs et permettront de couvrir un champ large de l’astrophysique : de la recherche sur le système solaire à la cosmologie. Au bout des dix ans du programme, le LSST aura permis de réaliser un film de l’univers visible depuis l’hémisphère austral et d’observer de façon instantanée les changements dans le ciel. Dans cette contribution nous présenterons une vue d’ensemble du projet, de l’acquisition des données aux produits finaux, avec un accent sur le système distribué de traitement de données de LSST pour lequel le Centre de Calcul de l’IN2P3 se prépare à jouer un rôle central.
        Orateur: Fabio Hernandez (CC-IN2P3)
        Slides
      • 31
        Observatoire Virtuel : Provenance des données
        L'Observatoire Virtuel a pour but de définir des standards d'interopérabilité qui permettront d'accéder et de travailler sur des données observées ou simulées. Cette présentation fera le point sur la réflexion actuelle qui est faite autour du modèle de données Prov-DM qui a pour but de décrire la provenance des données fournies. L'illustration sera faite autour de 2 cas d'utilisation : CTA (Cherenkov Telescope Array : projet européen de grand réseau de télescopes Cherenkov de nouvelle génération en astronomie gamma des très hautes énergies) et Pollux (base de données de spectres synthétiques).
        Orateur: Mme Michèle Sanguillon (LUPM)
        Transparents
      • 32
        Utilisation d'une plateforme Hadoop/Spark pour des données astrophysiques
        Une expérimentation est menée dans l'environnement VirtualData/OpenStack au LAL. Plusieurs caractéristiques de cette technologie sont en cours d'évaluation: - mise en place d'une infrastructure Hadoop/Spark/scipy sur une cloud OpenStack - mesures de performance (configuration du cluster, suivi des facteurs d'échelle) - apprentissage des modules fonctionnels de la plateforme Spark (Scala, Python) - exploitation des données binaires structurées dans Spark à travers le module Hadoop/avro - application aux fichiers FITS - quelques exemples de cas d'usage dans le contexte de l'expérience LSST **Christian Arnault** Axel Chevarin Réza Ansari Johann Cohen Tanoudji
        Orateur: M. Christian Arnault (CNRS)
        Transparents
    • Poster
      • 33
        Chartbeams : une carte intéractive des noyaux pour le GANIL
        Cette carte, dans son nouvel habit, se veut un outil interactif fournissant, de façon rapide et compréhensible, les données et caractéristiques des faisceaux produits dans les installations du GANIL. Présentation de l’outil ; Initiée en 2006 avec les SHE, une première version fait son apparition en 2011. En 2013, une version « Européenne » ChartECOS voit le jour. 2015 une nouvelle carte est proposée à la communauté avec intégration des données SPIRAL2.
        Orateur: M. Laurent Fortin (GANIL)
        Poster
      • 34
        Webinaires RI3: Le retour!
        poster en lien avec la présentation de même nom.
        Orateur: Valérie Givaudan (LAL)
        Transparents
      • 35
        Plateforme Zimbra, statut et perspectives.
        Il sera question dans cette présentation de faire un point sur la plateforme de messagerie Zimbra, sur son utilisation et sur les évolutions prévues.
        Orateur: M. Benoit DELAUNAY (Centre de Calcul de l'IN2P3)
    • 13:00
      Repas
    • Offline: 2 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      Présidents de session: Antoine Pérus (Cnrs/In2p3/Lal), M. Jean-René Rouet (CC-IN2P3/CNRS)
      • 36
        Comment optimiser l'utilisation du CPU
        L'expérience CTA sera le plus grand observatoire d'astronomie gamma au monde. Elle produira un flux de données 1000 fois plus important que l'expérience précédente H.E.S.S. Les performances des codes d'analyse existants ne permettent pas de soutenir le traitement d'une telle quantité de données. Nous présenterons les différentes techniques d'optimisation qui viennent de l'informatique hautes performances que nous mettons en œuvre dans nos codes d'analyse. Ceci afin de garantir une utilisation du CPU de 99% au lieu des 2 à 5% actuels.
        Orateur: M. Pierre Aubert (LAPP)
        Transparents
      • 37
        Evolution des modèles de calcul au LHC
        Les modèles de calcul des expériences du LHC ont été mis en place autour de la création d'une grille de calcul et de stockage mondiale dans les années 2000. Cette infrastructure distribuée a parfaitement rempli son rôle et a été l'un des ingrédients indéniables des avancées scientifiques obtenues au LHC depuis son démarrage en 2009. Fortes de l'expérience gagnée lors des premières années de fonctionnement de cette grille, les expériences du LHC modifient leurs modèles de calcul pour gagner en efficacité et en souplesse dans le but notamment d'intégrer des ressources "hors grille" afin d'anticiper le déluge de données du LHC. Dans cette présentation, nous décrirons l'infrastructure de ce système distribué et les modèles mis en place par les expériences, la contribution française au calcul pour le LHC et les évolutions récentes des modèles de calcul. Quelques mots sur les challenges qui nous attendent à plus long terme concluront cette présentation.
        Orateur: Dr Catherine Biscarat (LPSC/IN2P3/CNRS)
        Transparents
      • 38
        Comparatif des systèmes de stockage distribués dans le cas d'écritures intensives
        Dans cette présentation, je vous décrierai les besoins de l'expérience WA105, la configuration technique de tests (1 client équipé de 2 cartes 40gb/s, 9 éléments de stockage à 10gb/s chacun), les choix initiaux des systèmes de fichiers distribués que nous testerons (Lustre, BeeGFS, GPFS, Xtremefs, GlusterFS, MooseFS, XrootD, EOS...) mais aussi les tests réalisés pour chacun avec les débits observés en fonction du nombre d’éléments de stockage (1, 2, 4, 8...), de la taille des fichiers (100Mo, 1Go, 10Go, 20Go) mais aussi en fonction du nombre de processus simultanés en écriture (1,6,8). Je vous monterai ensuite les débit attendus et présents, ainsi que les résultats pour chacun des tests réalisés. Je conclurai alors avec les préconisations adaptées à ce cas précis.
        Orateur: M. Denis PUGNERE (IPNL)
        Transparents
      • 39
        Compte-rendu de l'école informatique IN2P3 « Parallélisme sur Matériel Hétérogène » (23-27 mai 2016)
        Je récapitulerai sommairemment les différentes technologies mise en œuvre (OpenMP, C++'11 & HPX, MPI, OpenCL, DSL-Python) lors de cette école notamment au niveau des résultats et de l'impact sur le code initial ainsi que les présentations qui n'ont pas débouché sur une implémentation (comme OpenCL pour FPGA). On fera notamment le lien avec la programmation fonctionnelle dont il a été question lors de la précédente sessio (JI 2014).
        Orateur: Dr Vincent LAFAGE (CNRS)
        Transparents
    • ASR: 2 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: M. Jean-Francois Blanc (CEA IRFU), M. Jean-Michel Barbet (Subatech)
      • 40
        Utiliser des radiateurs pour calculer?
        Dans le cadre de son programme bachelor, l'école Polytechnique va construire de nouveaux logements pour ses éléves. Suite à une rencontre avec la société QARNOT, elle envisage de les chauffer avec des radiateurs/ordinateurs. le modèle de Qarnot est : La société fournit le radiateur et paye la consomation électrique des organismes qui acceptent d'héberger ces radiateurs La société vend la puissance CPU fournie par ces radiateurs. Les applications doivent être en docker J'ai essayé de mesurer, du point de vue financier, la possibilité d'utiliser ces CPU. 3 scénarios : * acheter les radiateurs et les utiliser comme des noeuds de calcul * ne pas utiliser ces CPU . * utiliser le cloud de Carnot A ce jour, nous n'avons fait aucun test d'utilisation de ce hardware. Nous avons demandé à la société de nous préter un radiateur, mais nous ne l'avons pas encore recu. Pascale
        Orateur: Mme Pascale Hennion (LLR)
        Transparents
    • Pause
    • Outils collaboratifs
      Présidents de session: M. Jean-Francois Blanc (CEA IRFU), M. Jean-Michel Barbet (Subatech)
      • 41
        Atrium
        Afin de faire évoluer la gestion documentaire dans l’Institut, la direction adjointe technique de l’IN2P3 a souhaité mettre en place un nouvel espace collaboratif pour la gestion électronique des documents. Atrium permet notamment d’assurer la pérennité de vos documents tout en vous proposant une interface intuitive. Réalisée en étroite collaboration avec les experts des laboratoires, la migration d’EDMS vers Atrium est finalisée depuis mars 2016. Atrium est basé sur l’outil de gestion documentaire Nuxeo (plateforme Open Source). La Cellule IAO/CAO de l’IN2P3 et l'Equipe Projet Atrium assurent le support aux utilisateurs dans la phase d’exploitation de ce portail documentaire. Atrium a pour but d’être utilisé par tous. Son ergonomie, sa simplicité d’utilisation et la richesse de ses fonctionnalités apportent une réelle amélioration de la production et de la gestion documentaire dans les laboratoires. Atrium offre également la possibilité à tout agent de l’Institut de gérer ses propres documents dans un espace personnel limité par des quotas. Atrium a pour ambition d’occuper, à terme, la place centrale dans la gestion documentaire de l’Institut.
        Orateurs: M. Alexandre Perrier (IAO/CAO), M. Mathieu WALTER (Services centraux IN2P3)
        Transparents
      • 42
        Après PLUME : FENIX
        Le projet PLUME (https://www.projet-plume.org) a connu un franc succès comme référentiel des logiciels utilisés et produits dans l'enseignements supérieur et de la recherche en France. Après une coupure drastique des moyens en 2013, le projet a été mis en sommeil jusqu'à la reprise par Resinfo début 2016. Un groupe de travail a créé pour donner une nouvelle mouture au projet, que nous présenterons à la communauté RI3 lors de ses JI.
        Orateurs: Dr Dirk Hoffmann (Centre de Physique des Particules de Marseille), M. Laurent Pérochon (VetAgro-Sup), Mme Sophie Nicoud (CNRS LIRMM)
        Slides
    • Atelier: 3 Salle Cheminée

      Salle Cheminée

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      • 43
        Atelier: Programmation concurrente en Go
        Cet Atelier formera les heureux participants aux concepts de base de la programmation concurrente, en `Go`. Nous commencerons avec un petit `"Hello` `World"` en `Go` pour rapidement introduire la syntaxe des fonctions, variables, `packages` et `interfaces`. Puis nous etudierons les deux outils disponibles pour organiser et orchestrer un programme concurrent en `Go`: les `channels` et les `goroutines`. Cette introduction a la programmation concurrente se fera _via_ l'implementation d'une application _peer-to-peer_ echangeant des messages pur texte a travers le reseau. La premiere mouture de cette application se fera en mode console, puis au fur et a mesure des ameliorations apportees au cours de l'atelier, la derniere version tournera dans un navigateur et permettra une utilisation en mode _"tchat"_.
        Orateurs: Dr Sebastien Binet (LPC/IN2P3), M. Thomas Bellembois (LPC Clermont-Ferrand)
        Transparents
    • Atelier: 4 Salle Tatin

      Salle Tatin

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      • 44
        Atelier Atrium
        Atelier Atrium : Tout en assurant une continuité de service par rapport à l’outil EDMS, Atrium se présente résolument comme une application moderne alliant la puissance de ses concepts à une ergonomie intuitive, exclusivement basée sur une interface Web, que ce soit pour l‘utilisation quotidienne ou pour les fonctions d’administration. Cet atelier interactif vous permettra de découvrir Atrium et de vous familiariser avec les fonctionnalités essentielles et avancées de la plateforme. Nous pourrons également étudier vos besoins et vous proposer des solutions avec Atrium.
        Orateurs: M. Alexandre Perrier (IN2P3), M. Cedric MULLER (IPHC), M. Mathieu WALTER (Services centraux IN2P3)
        Transparents
    • Atelier: 5 Salle Griou

      Salle Griou

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      • 45
        Une nouvelle passerelle entre l'instrumentation et l'informatique : l'Arduino
        L'Arduino apporte de nouvelles possibilités pour instrumenter rapidement et économiquement de nouveaux équipements. Nous nous proposons de mettre en œuvre un exemple avec divers degrés d'abstraction des interfaces.
        Orateurs: M. Nicolas DOSME (CSNSM), M. Xavier Grave (CSNSM-IN2P3)
    • Discussions: 1 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
    • 20:00
      Repas
    • ASR: 3 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: M. Guillaume PHILIPPON (LAL - CNRS), M. Jean-Michel Barbet (Subatech)
      • 46
        Arrêt automatique de serveurs basé sur un DNS
        Avec le démarrage de la grille de calcul en 2008, un système d’arrêt automatique des serveurs a été mise en place. Il basé sur un mode client-serveur dont le serveur est un DNS, que nous utilisons tous de manière plus traditionnelle tous les jours. Depuis l’origine il permet un arrêt automatique en cas d’éventuel problème de climatisation, en 2016 il intègrera également un volet électrique.
        Orateur: M. Nicolas RUDOLF (IPHC)
        Slides
      • 47
        GPU, HPC : nouveautés et calcul parallèle au CC-IN2P3
        Le CC-IN2P3 a deux actualités marquantes cette année en matière de calcul parallèle : - une nouvelle ferme HPC - une ferme équipée de GPU Tour d'horizon de ces nouveautés : à quoi ressemblent-elles, pourquoi et comment les utiliser ?
        Orateur: M. Nicolas Fournials (CC-IN2P3)
        Transparents
      • 48
        Statut du cloud au CC-IN2P3
        La présentation abordera les différentes utilisations du cloud au CC-IN2P3 (hébergement, service, calcul...) et les défis techniques liées.
        Orateur: M. Leslie-Alexandre DENIS (CC-IN2P3)
        Transparents
      • 49
        FG-Cloud : Cloud académique pour le calcul scientifique
        Le GIS [France Grilles][1], initialement focalisé sur les grilles de calcul et de stockage, propose désormais une offre de services basée sur le [« Cloud Computing » IaaS][2]. Il s'agit, au travers de l'intégration des dernières avancées technologiques, de proposer un service répondant aux évolutions des besoins de traitement des données scientifiques, notamment en terme d'élasticité et de flexibilité. France Grilles a donc développé, toujours sur le principe de partage et de mutualisation d'expertise, une fédération de Clouds IaaS, rassemblant des ressources (calcul, stockage, réseau et humaines) fournies librement par les différents sites participants en leur imposant le minimum de contraintes. En première partie, nous présenterons les caractéristiques de l'infrastructure : - les sites et le réseau humain à la base de l'infrastructure - les technologies utilisées - les services en production - l'accueil de nouveaux sites participants - l'intégration à l'échelle européenne et la certification EGI La deuxième partie détaillera quelques exemples d'utilisation de l'infrastructure, et en particulier les apprentissages que nous avons pu tirer du Cloud Challenge, test grandeur nature de l'infrastructure par un utilisateur expert. Nous finirons par un rappel sur les modalités d'accès au [Cloud France Grilles][3] et les différents services offerts aux utilisateurs : - Instanciation de clusters (calcul, stockage, réseau) à la demande - Accompagnement (formation, conseil, aide) - Documentation - Développements (relatifs à l'instanciation sur le Cloud) - Passerelle vers le Cloud fédéré EGI [1]: http://www.france-grilles.fr [2]: https://fr.wikipedia.org/wiki/Infrastructure_as_a_service [3]: http://www.france-grilles.fr/catalogue-de-services/fg-cloud/
        Orateur: M. Nicolas CLEMENTIN (CNRS-LUPM)
        Transparents
      • 50
        Service France Grille DIRAC
        Aujourd’hui, plusieurs communautés scientifiques ont besoin des calculs de plus en plus intensifs et des grandes quantités de ressources informatiques pour gérer leurs données. Pour répondre à ces besoins de diverses ressources informatiques distribuées géographiquement et appartenant à différentes infrastructures informatiques peuvent être exploitées. L’utilisation de ces ressources par une agrégation transparente pour les utilisateurs est un défi, en particulier pour les petites communautés scientifiques. Le projet DIRAC fournit un cadre pour la construction de systèmes de calcul distribué avec un accès facile aux réseaux, les nuages, les clusters de calcul et les réseaux de bénévoles. Il est maintenant utilisé par plusieurs des expériences de physiques de haute énergie et l'astrophysique dans le monde. Depuis 2012, la première instance multi-VO de DIRAC a été déployée en France, coordonnée par France Grille et héberge au Centre de Calcul de l’IN2P3. Cette instance a aussi la particularité de que la administration et surveillance est fait par une équipe multidisciplinaire distribuée entre 6 laboratoires partenaires. Nous présentons dans cette contribution la description du service DIRAC pour France Grille, l’ouverture progressive à différentes communautés, ainsi que l’expérience opérationnelle.
        Orateur: Vanessa Hamar (CC - IN2P3)
        Slides
      • 51
        Windows 10: Configuration entreprise
        Parcours de quelques outils et solutions étudiées par l'IRFU et par le CEA pour permettre une configuration de Windows 10 conforme aux règles d'utilisation de l'IRFU et du CEA. En particulier, le CEA exige que les applications tuiles soient gérées (certaines interdites, certaines préinstallées et mises à jour régulièrement, d'autres proposées) sans utilisation d'un compte Microsoft personnel. Nous étudions donc le produit "Microsoft store for entreprise" et son intégration avec SCCM. L'obligation de chiffrer (bitlocker) les portables, les règles de sécurités (GPO, comptes locaux...) doivent être re-étudié pour Windows 10. Tous les paramètres de confidentialité de Microsoft doivent aussi être étudiés et configurés un par un.
        Orateur: M. joel surget (CEA/Saclay IRFU)
        Transparents
    • 10:30
      Pause
    • Atelier: 6 Salle Cheminée

      Salle Cheminée

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      • 52
        Atelier Docker
        Cet Atelier presentera la technologie de virtualisation legere telle qu'implementee par `Docker`. Nous verrons l'architecture globale des containers `docker` ainsi que leurs avantages et inconvenients par rapport aux machines virtuelles (`VM`s). Les participants pourront ensuite creer leur premier container pas-a-pas. Tout d'abord en utilisant la methode interactive, puis _via_ les `Dockerfiles`. Enfin, nous verrons comment publier et partager des containers `docker` au moyen du `Hub`.
        Orateurs: Antoine Pérus (Cnrs/In2p3/Lal), Dr Sebastien Binet (LPC/IN2P3)
        repository
    • Atelier: 7 Salle Griou

      Salle Griou

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      • 53
        Pourquoi pas Ada 2012 ?
        Depuis Ada 83, le langage n'a cessé d’évoluer pour intégrer de nouveaux paradigmes (liste non exhaustive): - la programmation orientée objet et la programmation distribuée avec Ada 95 - les interfaces en Ada 2005 - la programmation par contrat en Ada 2012 Venez découvrir la puissance d'un langage mature et normé.
        Orateurs: M. Eric Legay (CSNSM), M. Nicolas DOSME (CSNSM), M. Xavier Grave (CSNSM-IN2P3)
    • Discussions: 2 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

    • 12:30
      Repas
    • Social event Activité extérieure

      Activité extérieure

    • Online: 1 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: Dr Vincent LAFAGE (CNRS), M. Xavier Grave (CSNSM-IN2P3)
      • 54
        Comparaison et retour d'expériences des implémentations OPC UA

        Le standard OPC UA a été présenté par Th. Le Flour en 2014, en tant que protocole standard dans le monde du SCADA. Nous nous proposons d'élucider les aspects pratiques de son utilisation. Pour utiliser le protocole, un développeur fait bien d'utiliser une implémentation du protocole en forme de librairie, qui a été validée par son fournisseur. D'une part, c'est un gage de qualité, d'autre part on se passe de la charge d'une implémentation maison d'un protocole aussi complexe et complet OPC UA. Or, sa réutilisation a un prix (de licence) souvent.

        Ces dernières années ont vu apparaître d'une part des "wrappers" pour livrer une interface plus conviviale au développeur d'applications, basés sur des librairies commerciales, d'autre part des implémentations dont le code source est librement disponible, par exemple sur github. Le langage python joue un rôle important dans ces interfaces qui sont souvent testées par des prototypes rapides. Nous pouvons donner un retour de nos expériences au sein de l'expérience CTA, ainsi qu'un rapport des migrations OPC (OLE) -> OPC UA dans certaines manips du LHC. (Elles ont toutes obligations de migrer à terme ; certaines ont déjà fini le travail.) Eventuellement, il serait intéressant d'inviter un expert du CERN sur le sujet.

        Le but de la présentation est également un échange entre personnes qui ont fait l'expérience OPC UA et celles qui seraient intéressées ou pourraient proposer des alternatives ou comparaisons avec d'autres environnements et protocoles. La nouvelle « mode piscine » nous semble idéale pour cela. Nous proposerons au moins un ou deux cours de piscine pour mettre la main à la pâte avec ceux qui veulent.

        Orateur: M. Thierry Le Flour (LAPP)
        Transparents
      • 55
        IHM pour contröle/commande, client lourd ou léger, la solution ADA
        Présentation de l'interface graphique développée à l'aide de la bibliothèque Gtkada pour le contrôle et commande de l'équipex Andromede (instrument pour l'analyse par spectrométrie de masse) et des interfaces web utilisant le serveur AWS (Ada Web Server) dans le cadre des projets Cocote et Gaspard (détecteurs).
        Orateur: M. Jean Louis Coacolo (IPNO)
        Transparents
      • 56
        Go & Polymer: slow control, monitoring & computing
        `Go` est un langage de programmation relativement récent qui a pour substrat un code ADN qui facilite la programmation concurrente. Dans cette présentation, nous verrons comment ce langage peut être utilisé dans le cadre d'applications temps réels (_soft_ _realtime_) comprenant plusieurs modules: - acquisition de données provenant d'un bus système ou d'un _socket_, - réception/envoi de commandes depuis/vers des variateurs et - présentation et monitoring de données en temps réel mou (_soft_ _realtime_), en mode déporté ou local. Nous présenterons les différentes technologies utilisées (`Go`, `Polymer/JS`, `WebSockets`) et les performances obtenues dans quelques cas concrets: - contrôle commande du _testbench_ `LSST-LPC`, - DAQ d'`AVIRM-LPC`, - simulation de _supernovae_ pour `LSST`.
        Orateur: Dr Sebastien Binet (LPC/IN2P3)
        Transparents
      • 57
        Retour d'expérience avec sonarqube pour le contrôle-commande de la caméra du télescope LSST
        **Sous-titre : Comment la partition à une école informatique IN2P3 peut contribuer à l'amélioration de la qualité des logiciels développés dans nos laboratoires** **Résumé** En revenant de l'école informatique 2015 : "Outils de mise en production du logiciel", j'ai installé sonarqube sur mon portable et j'ai soumis à son analyse le code que j'écris pour le changeur de filtres de la caméra de LSST. Le résultat a été si instructif que j'ai convaincu nos collaborateurs américains d'installer un serveur sonarqube, en plus des serveurs Jenkins et Nexus que nous avions déjà. C'est maintenant la totalité du contrôle-commande de LSST qui passe sous les Fourches Caudines de sonarqube. Dans cette présentation, je décrirais les **avantages de sonarqube**, les impacts positif de cet outil sur les habitudes de travail et l'adoption des bonnes pratiques de développement. Mais je décrirai aussi les **limites de l'outil**. Notamment pour un code de contrôle-commande où l'étape de tests avec le vrai matériel reste indispensable.
        Orateur: Mme Françoise Virieux (APC)
        Transparents
    • 17:20
      Pause
    • Eclair: 3 Salle Tatin

      Salle Tatin

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: Dr Dirk Hoffmann (Centre de Physique des Particules de Marseille), M. Jean-Francois Blanc (CEA IRFU)
      slides
      • 58
        VPN au LPC Caen
        Présentation et retour d’expérience sur une solution de réseaux privés virtuels orientée Windows : - VPNReconnect
        Orateur: M. david zwolinski (cnrs)
        Transparents
      • 59
        Le VPN au LPNHE
        Afin de répondre à certaines difficultés rencontrées par les utilisateurs nomades, nous avons mis en place un accès par VPN aux différentes ressources informatiques du laboratoire. Je vous propose de vous présenter l'architecture mise en oeuvre basée sur OpenVPN et Docker ainsi que les questions et les réponses apportées concernant la sécurisation de ce type de service.
        Orateur: M. Thomas Audo (LPNHE)
      • 60
        Test d'authentification de connexions par tokens
        Le centre scientifique français de la mission Svom devra gérer de nombreuses connexions venant d'utilisateurs aux statuts variés. Il sera essentiel d'identifier ces utilisateurs de façon simple mais sûre puis de leur conférer les accès auxquels ils pourront avoir droit. Pour cela l'utilisation de jetons d'authentification semble très utile. Nous avons implémenté cette technique avec l'idée de passer dans un deuxième temps à l'authentification par protocole OAuth2.
        Orateur: M. Jean-Paul Le Fèvre (CEA Irfu)
        Transparents
      • 61
        Optimisation de l'infrastructure du cluster de calcul IMNC avec HTCondor
        Le cluster de calcul IMNC est utilisé par les chercheurs et ingénieurs du laboratoire pour la simulation numérique de systèmes et d'expériences d’imagerie médicale et de radiothérapie. Les nœuds de calcul sont composés d'un ensemble de machines hétérogènes comportant au total plus de 700 cœurs CPU. Toutes les machines sont aujourd’hui hébergées dans la salle mutualisée de Virtual Data et connectées par un réseau Gigabit Ethernet (GbE). Nous avons récemment réalisé un important travail d'optimisation de l’infrastructure de ce cluster grâce au réglage des paramètres du gestionnaire de tâches HTCondor. Dans cette présentation, nous décrirons plus particulièrement la configuration de l’interface utilisateur, la gestion des priorités entre les différentes tâches et les différents utilisateurs, la mise d’une ou plusieurs queues d’exécution et le transfert automatique des fichiers spécifiés par l’utilisateur.
        Orateur: Mme Albertine DUBOIS (IMNC)
        Transparents
      • 62
        Load Balancing avec Keepalived
        Comment améliorer la disponibilité et la fiabilité de vos services en utilisant Keepalived.
        Orateur: M. François Legrand (Lpnhe)
        Slides
      • 63
        UTENTOMATIC: la Gestion des comptes Unix sous Active Directory
        Utentomatic est une application web développée au sein du Laboratoire de l'Accélérateur Linéaire permettant la création de comptes Active Directory avec des attributs Unix. Historiquement les utilisateurs du LAL avaient un compte Windows sous Active Directory et un compte Unix sous NIS. Il a été décidé de gérer l’ensemble des comptes sur Active Directory et d’abandonner NIS. Les comptes Windows ont maintenant des attributs Unix qui sont utilisés par les services Unix (mail, accès répertoires, session interactive...) pour authentifier les utilisateurs. Il fallait donc pouvoir générer les bons attributs Unix à un nouvel utilisateur, et c'est la raison principale du développement d’Utentomatic. Elle est construite à partir du Framework Django en Python 2, jQuery, Bootstrap et Jinja. Aujourd'hui elle est capable de créer un utilisateur avec attributs Windows et Unix, créer un répertoire personnel sur un serveur Unix, créer un compte mail et envoyer un mail lorsque le compte est créé. L'application permet également de visualiser des informations de l'ensemble des comptes et d'en modifier les plus utilisées (date d’expiration, …) Nous avons récemment ajouté la possibilité de créer et visualiser des groupes, ainsi qu'ajouter/supprimer un utilisateur d'un groupe. Utentomatic a été conçue pour être le plus général possible, afin d’être compatible sur différente infrastructure, travail toujours en cours. Elle n’as pas vocation à remplacer les outils Windows/Active Directory de gestion des comptes, mais permet de simplifier la gestion des comptes (point d’entrée unique pour créer un compte).
        Orateur: M. Gérard Marchal-Duval (LAL)
        Transparents
      • 64
        Equipements réseaux Juniper
        Après plus de 20 ans de fonctionnement avec des équipements de marque Cisco, le réseau de l’IPHC a été renouvelé en 2015 avec du matériel de marque Juniper. Un bref aperçu de JunOS le système d’exploitation, sa structure et son langage. Un bilan après un an de fonctionnement.
        Orateur: M. Nicolas RUDOLF (IPHC)
        Slides
    • Online: 2 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: M. Cedric MULLER (IPHC), Mme Michèle Sanguillon (LUPM)
      • 65
        Activités européennes pour la physique des hautes énergies dans AIDA-2020 WP3
        Le projet européen AIDA-2020 s'introduit dans la continuité du projet AIDA, dédié à la recherche sur les détecteurs de physique des particules et technologies associées. Un important volet de ce projet, le Work Package 3, est consacré au développement logiciel pour la physique des particules: nouvelles bibliothèques implémentant des représentations de données plus efficaces, mise à niveau de frameworks existants pour les nouvelles architectures parallèles, alignement online de l'expérience LHCb... Je me propose donc de présenter les efforts soutenus dans le cadre de ce work package, et en particulier des manières dont l'IN2P3 y contribue.
        Orateur: M. Hadrien Grasland (UMR 8607 - LAL)
        Transparents
      • 66
        Nouvelle acquisition pour LHCb avec reconstruction de tous les évènements en ligne à 30MHz sans filtre
        Dans cet exposé je me propose de décrire l'évolution de l'architecture du système d'acquisition due aux nouvelles spécifications qui lui impose d'acquérir la totalité des données et de reconstruire les évènements à la vitesse des collisions dans le détecteur. Tout filtrage intermédiaire disparait et la totalité des évènements est distribuée à une grande ferme de PC qui fait la sélection et l'enregistrement des évènements retenus pour la physique. J'exposerai la solution en cours de développement qui utilise la technologie PCIe et les outils développés pour permettre à chaque sous-détecteur de mettre au point ses fonctions d'acquisition dans le cadre global. J'expliciterais la part importante des contributions des laboratoires IN2P3 impliqués dans ce travail.
        Orateur: M. Pierre-Yves Duval (CPPM)
        Transparents
      • 67
        Développement du système DAQ pour des caméras de l'expérience CTA

        Le projet NectarCAM, caméra pour l'expérience CTA (Chrenkov Telescope Array) nécessite un système d'acquisition de données conséquent permettant de sortir jusqu'à 20 Gbps de données en flux continu après dérandomisation, en utilisant le plus possible des technologies commerciales et bon marché. Les caméras avec leurs système DAQ sont censées équiper jusqu'à 15 télescopes d'un même type (sur une cinquantaine par site). Les choix techniques dans l'électronique frontale (EF) imposent de collecter les données émises simultanément sur 300 prises RJ45 en protocole UDP, situation inhabituelle pour un réseau commuté dont les composants sont généralement conçus pour résister aux fort débits, mais moyennés dans le temps. Une équipe au CPPM a développé un système qui a été validé à l'aide d'un stimulateur pour le système DAQ, composé de 64 cartes CPU commerciales, chacune équipée de cinq ports RJ45 à 1Gbps et un processeur faible consommation. Ces résultats ont fait l'objet d'une présentation aux JI14 et lors de la Journée Instrumentation en 2015 à Jussieu.

        Depuis début 2016, l'Event-Builder de NectarCAM est opérationnel sur un banc de test avec un nombre très réduit de cartes d'électronique frontale, allant tout de même jusqu'au stockage des données dans les catalogues DIRAC, en passant par une écriture locale sur disque, comme ce sera le cas dans l'expérience, une fois montée sur un site au Chili ou sur La Palma aux Canaries. Ainsi, nous avons eu le plaisir de présenter les premiers un système DAQ complet et n'utilisant quasiment aucun outils auxiliare spécifique de la NectarCAM, mais plutôt des outils communs de et fourni par d'autres groupes du consortium CTA.

        Les analyses des données et la montée en charge sont en cours. En fonction des résultats, nous allons préciser les points critiques ou faciles que nous avons rencontré avec cette panoplie d'éléments interfacées.

        Orateurs: Dr Dirk Hoffmann (Centre de Physique des Particules de Marseille), Julien Houles (Centre de Physique des Particules de Marseille)
        Transparents
    • 20:00
      Repas
    • Offline: 3
      Président de session: Dr Dirk Hoffmann (Centre de Physique des Particules de Marseille)
      • 68
        Les projets Web du CC
        L'équipe "Applications" a réalisé dans les dernières années des applications web en PHP basé sur le framework Symfony. Nous présenterons, l'historique et la montée en compétences sur le produit et comment nous gérons les projets en mode agile avec intégration continue.
        Orateur: M. Jean-René Rouet (CC-IN2P3/CNRS)
        Transparents
      • 69
        Analyse de PetaOctets de données cosmiques pour LSST
        Le Large Synoptic Survey Telescope (LSST) va bouleverser l'astronomie. Équipé du plus grand capteur photographique jamais conçu pour l'astronomie, ce télescope permettra de constituer le plus large et le plus profond relevé de l'univers. Dès sa mise en exploitation en 2022, le traitement des données produites par LSST nécessitera des dizaines de milliers de processeurs et une capacité de stockage de données en augmentation de plusieurs dizaines de pétaoctets chaque année et ce pendant au moins une décennie. Des objets célestes et leurs propriétés physiques seront identifiés et catalogués dans une base de données qui sera composée à terme de milliers de milliards d’entrées. D'un volume de l’ordre de plusieurs dizaines de pétaoctets, ce catalogue jouera un rôle majeur dans l’exploitation scientifique des données produites par le télescope. Pour satisfaire ce besoin, un logiciel spécifique nommé Qserv est actuellement développé par une équipe majoritairement basée à l'Université de Stanford aux Etats Unis. Cette présentation décrira l'architecture de Qserv, les défis auxquels il doit répondre, son état d’avancement ainsi que les résultats de plusieurs campagnes des tests réalisées pendant les dernières années. Les contributeurs de cet exposé font partie de l’équipe de développement de Qserv et de l’équipe opérant l’infrastructure de tests composée actuellement de 400 processeurs et 500 téraoctets de stockage, localisée au centre de calcul de l’IN2P3 / CNRS.
        Orateur: Fabrice Jammes (CNRS)
        Transparents
      • 70
        CMDB du CC
        Description détaillée du projet - Choix d'un produit open-source - Design du schéma de données - Implémentation spécifique pour le CC - Lavoisier au coeur du process - Limitations du produit choisi - Intégration d'un base de donnée orientée Graphe - Interface WEB (graphe dynamique)
        Orateur: M. Sylvain Reynaud (CNRS)
        Transparents
    • Eclair: 4 Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Président de session: Dr Dirk Hoffmann (Centre de Physique des Particules de Marseille)
      slides
      • 71
        Communication du RI3
        Présentation rapide du RI3 (Réseau des Informaticiens de l'IN2P3 et de l'IRFU), des actions récurrentes, des groupes existants et des prochains rendez-vous... ...en attendant les prochaines JIs en 2018!
        Orateur: Frédérique Chollet (LAPP-IN2P3)
        Poster-RI3
        Site RI3
        Transparents
      • 72
        Webinaires RI3: le retour!
        Courte présentation, au nom du RI3, des webinaires. Le but est de susciter une large participation, à la fois pour présenter un webinaire et pour suivre ceux qui sont programmés.
        Orateur: Valérie Givaudan (LAL)
        Transparents
      • 73
        Projet de journal SW&C for Big Sciences
        Orateur: M. Michel Jouvin (LAL / CNRS)
        Slides
    • Pause
    • Discussions: Retour Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Présidents de session: M. Bernard Boutherin (LPSC), M. Eric Fede (LAPP IN2P3/CNRS)
      • 74
        Retour des groupes de discussion
        Retour des groupes de discussion sous la forme d'une présentation éclair par groupe.
        Orateur: M. Bernard Boutherin (LPSC)
    • Clôture Salle Plénière

      Salle Plénière

      VVF Villages Le Grand Lioran

      15800 Saint-Jacques-des-Blats
      Président de session: M. Eric Fede (LAPP IN2P3/CNRS)