Je suis à Bruxelles pour assister à la conférence sur « la publication scientifique dans l’Espace européen de la recherche Accès, dissémination et sauvegarde à l’ère numérique », organisée par l’Union Européenne au travers de la Commission. L’un des ateliers est consacré à la e-infrastructure : il apparaît que la sauvegarde – pour conservation à long terme – des nouveaux outils utilisés parfois en tant que support des publications scientifiques (wikis, CMS, blogs, et autres outils remis au goût du jour par la vague du web 2.0) n’est très facile. Une question revient très souvant : le coût de la pérennisation à long terme. Certains évoquent une transmission permanante et fluide entre les générations d’outils (de fait nous faissons cela aujourd’hui) : mais il faudra organiser ce type de modèle au niveau Européen. Cependant, il y a de très nombreuses initiatives (le DCC est très actif en la matière, mais également le CERN), une tendance se dégage, le besoin d’intégrer, de plus en plus, à la publication numérique les données sources ayant été utilisées pour écrire l’article. Cela confirme que les flux vont être dans la question centrale de la préservation des documents numériques. Ainsi , 3 niveaux se dégagent :

  • – le stockage de la donnée
  • – sa disponibilité via un réseau (internet, intranet, extranet)
  • – la capacité des équipes ayant en charge des données numériques d’avoir les moyens de les faire migrer

Stéphane.