* Point reseau (invites Jerome+Laurent) - core2 : la configuration faisait que le debit effectif etait de 40 Gb/s reparti sur 6 fibres, donc pas de saturation visible sur le monitoring reseau. probleme resolu, et nouvelles interventions prevues pour alleger davantage la charge venant de l'espace de stockage - IPv6 : le routage devrait etre effectue cette annee avec une partie des services en IPv6 certains services (comme AFS) n'ont pas de plan pour IPv6 - WN+OPN : demande quelques efforts mais faisable Jerome pense que c'est inutile de faire ca maintenant car des changements substantiels sont a venir au niveau du reseau, et la configuration ne tiendra que quelques mois la mise en place de federations et l'acces aux donnees a distance induira une charge supplementaire sur le reseau qu'il faudra surveiller On note que les experiences LHC estiment que moins de 10% des donnees seront accedees a distance * CMS (Sebastien) - une modification de la configuration de dCache devra etre effectuee pour mettre en place le nouveau modele de placement/acces des donnees avant l'arret de juin - suffisamment dIP publiques sur OPN pour mettre nos WN, tant qu'on ne met pas en place de VM - IPv6 apporte une solution (partielle), et ce n'est pas pour tout de suite - machines necessaires pour proxy host sur dCache (pas forcement recentes). JY en a demande une pour mettre en place avant l'ete * AOB - point sur les changements d'identite lies a glexec demande par Suzanne qui pose des problemes d'accounting Renaud tentera de soulever ce point a un prochain GDB pour savoir si les autres sites/LRMS peuvent gerer ca * Cloud - premiere etape commune a toutes les VO . but : mise en place d'une queue sur GE et CREAM pointant sur un ensemble de CernVM et faire tourner 1 job dessus . idealement une meme VM peut faire accueiller les jobs de ATLAS+CMS+LHCb (dans le cas contraire, a voir) . la gestion de ces VM sera assuree par Jacques, avec qui il faudra interagir pour definir nos besoins une fois les etapes ci-dessus avancees. TO DO : ------- . "procedure" de regulation d'entree des jobs ATLAS apres downtime (support ATLAS+Suzanne) . contacter CERN pour savoir comment ils reussissent a faire marcher CVMFS pour CMS (Sebastien) . faire un point sur Openstack+Dirac un de ces 4 (Vanessa) et vois avec HPSSmaster si on peut avoir une compta des donnees ecrites avant 2004 . creuser MW sur CVMFS -> repertoire commun ou pas, CRLs etc... (Renaud) : CVMFS http://www.sysadmin.hep.ac.uk/wiki/EMI2Tarball The contents of the tarball can be found in cvmfs (thanks to Jakob Blomer), within the grid.cern.ch repository (currently /cvmfs/grid.cern.ch/emi-wn-2.5.0-1/ for the SL5 release, /cvmfs/grid.cern.ch/emi-wn-2.5.1-1_sl6v2 for SL6 - make sure you use the right one!). We've tested the SL5 version at Lancaster and found no problems with it. Setting up grid.cern.ch is fairly simple, just add grid to the list of CVMFS_REPOSITORIES in /etc/cvmfs/default.local and restart cvmfs. You will need to edit a local version of the setup scripts, and have them point at the cvmfs emi wn base. . mettre en place notifications tests Nagios . retour ATLAS, CMS et LHCb pour CREAM-EMI2 . point SL6 avec VOs . procedure mise ne place queue jobs virtuels avec Christelle, Suzanne, Jacques, Mattieu