Le calcul scientifique est un domaine soumis à une évolution technologique rapide qui induit une pression d’adaptation forte et continue. Durant la dernière décennie, nous sommes ainsi passé des fermes de serveurs, au calcul distribué (grilles) et pour atteindre maintenant le « cloud computing ». On parle aujourd’hui des Big Data, de l’exploitation des GP/GPU et des opportunités que pourrait offrir le calcul parallèle (HPC). Le calcul doit également faire face à des nouveaux défis : comment traiter l’augmentation des volumes des données, non seulement du LHC, mais également dans les autres domaines tels l’astroparticule et la cosmologie, comment organiser l’accès ouvert aux données et leur pérennisation sur toutes nos activités, ou encore comment s’inscrire dans le contexte national et international. Parallèlement, la communauté informatique a réussi à s’établir comme un des acteurs majeurs dans le traitement des données massives et a acquis des compétences importantes et une expertise largement reconnue.
Le but de ce colloque est de discuter des défis et opportunités qui nous font face pour dégager des lignes stratégiques afin de rester à la pointe et fournir à nos communautés les services nécessaires pour atteindre nos buts scientifiques.