sp.Blog

le blog de Stéphane Pouyllau

Étiquette : ist (Page 1 sur 2)

Louise

Je viens d’apprendre le décès brutal de Louise Merzeau. Elle m’avait invité à participer au séminaire Ecrilecture en 2012 et je me souviens de cette discussion si forte et riche qui s’y était développé. Grace à Louise, j’ai rencontre Marcello Vitali-Rosati, Vincent Larrivière, etc. mes contacts du Québec avec qui je travaille aujourd’hui. J’ai croisé plusieurs fois Louise Merzeau dans des réunions, ateliers, et j’avais été marqué par la richesse de ses analyses, toujours très précises, appelant à réfléchir. Elle m’avait souvent questionné sur les « traces » dans le cadre du projet ISIDORE, et particulièrement lors du séminaire Ecrilecture. Ses questions étaient si constructives. Je pense à ses proches, à ses étudiants. Louise va nous manquer.

Lectures pour un été pluvieux ?

Je signale le très bon billet sur l’interopérabilité de Marie-Anne Chabin dans son blog (merci d’ailleurs à Silvère Mercier pour le signalement). Je me suis permis un petit et court commentaire à ce billet car il fait écho en partie aux limites de l’interopérabilité quand elle devient plus une mode qu’un besoin réel. C’est particulièrement vrai dans le monde de l’interopérabilité des métadonnées documentaires ou le protocole OAI-PMH est largement utilisé (ce qui est bien) mais parfois mal maitrisé : Il est courant de tomber sur des entrepôts OAI-PMH qui tentent d’échanger des métadonnées qui, non-normalisées par exemple, ne trouveront pas d’utilisateurs « en face » pour les exploiter réellement.

En écho complémentaire, je signale la journée d’étude « De l’OAI au web de données : Bibliothèques et publications sur Internet » le 12 octobre 2012 qui se propose d’explorer le lien entre interopérabilité et utilisation du web comme lieu de publication même des informations structurées. Pour finir, je me permet de vous encourager de regarder et d’écouter de temps en temps l’intervention d’Emmanuelle Bermes sur le web de données qui éclaire toutes ces notions de façon magistrale.

Equipes Numériques : nouveaux métiers, nouvelles structures

Ce billet s’appuie sur le texte de Pierre Mounier disponible en ligne sur l’Unité Numérique de l’ENS LSH.

 

La diffusion de sources historiques sur le web est en augmentation et la demande est de plus en plus forte. Les étudiants, au niveau master par exemple, seront dans quelques années, les principaux utilisateurs des sources historiques numérisées et disponibles en ligne (web et entrepôts OAI). Le signalement de ces sources s’améliore de jours en jours même si de nombreux sites ou entrepôts de données restent « isolés » (notion curieuse pour le web je vous l’accorde). Après l’époque des sites web offrant des sources numérisées, nous sommes dans celle des entrepôts, et des méta-entrepôts. Aujourd’hui, tout le monde fait de la rétro-numérisation de sources : bibliothèques, services d’archives, laboratoires de recherche, projets de recherche. Même un chercheur isolé demande de plus en plus une copie numérisée d’une source et si possible envoyée à son adresse électronique. Depuis quelques années, des présentations PowerPoint, « augmentées » de sources numériques, fleurissent dans les TD des universités et les plateformes d’enseignement à distance. Dans le monde de la recherche scientifique en sciences humaines et sociales, c’est aujourd’hui une évidence, les sources numérisées sont partout.

Depuis quelques années, la demande devient également importante. Aujourd’hui, les chercheurs publient des articles dans des revues électroniques, déposent dans les archives ouvertes et associent, ou le feront bientôt, à leurs articles des fac-similés numériques (manuscrits, collections de photos, etc.). Face à cette demande, des méta-entrepôts sont en construction. Ils sont souvent la partie immergé de méta-portails disciplinaires. La tendance actuelle et à l’interconnexion de ces méta-entrepôts à l’aide protocoles fondés sur : des normes communes, des briques technologiques communicantes et utilisant les canaux naturels du web (http, etc.).

Dans les sciences humaines, ces méta-entrepôts sont créés la plupart du temps par les équipes IT regroupant des ingénieurs, des techniciens spécialisés en information scientifique et techniques (IST), en documentation et archivistique et des chercheurs (voir le billet de Pierre Mouier sur l’Unité Numérique). En lisant ce billet, je me suis aperçu que mon équipe IT – le CRHST et son centre de ressources numériques (le CN2SV) – avait un rôle assez semblable finalement et je me suis assez bien reconnu dans ce paragraphe de Pierre Mounier :

« Pour dire les choses brutalement, l’Unité Numérique est une structure nouvelle qui répond à une situation nouvelle. On peut penser qu’elle est une manière particulière, comme d’autres le font différemment ailleurs, d’inventer un nouveau métier, celui d’éditeur numérique. Elle ne pourrait faire ni l’un ni l’autre (répondre à la situation et inventer un métier) si son centre de gravité se déplaçait et la faisait tomber de l’un ou l’autre des côtés (dans une bibliothèque, un service informatique ou une maison d’édition traditionnelle). »

Un nouveau métier ? Oui, j’en suis persuadé depuis quelques temps, c’est bien un nouveau métier avec ces formations et ces réseaux. A nouveau métier, nouvelles structures ? Bien évidement. Elles font de l’informatisation des données, de l’ingénierie documentaire, de la re-documentarisation de sources, de l’édition électronique et elles inventent et adaptent des outils informatiques pour des projets de recherche. Elles sont le lien, grâce à la veille technologique, entre les contenus des grandes bibliothèques numériques et les besoins des chercheurs. Je rejoints également Pierre Mounier sur l’idée suivante :

« … le principe du respect de l’autonomie scientifique et éditoriale des équipes de recherche avec lesquelles le travail est fait. Et l’application de ce principe est un peu une quête du Graal car il ne se résume évidemment pas à laisser les chercheurs tout faire par eux-mêmes. Il s’agit bien plutôt de faire en sorte que les choix qui sont faits et les actions techniques qui sont déléguées à l’Unité Numérique ne se traduisent pas par une dépossession et finalement une trahison des projets de recherche. Il faut donc pour chaque projet, en fonction du type de réalisation et de demande, mais en fonction aussi des particularités propres à l’équipe qui la porte, imaginer un dispositif qui mixe un choix d’outils appropriés, une bonne répartition des tâches et des niveaux de décision et une dose variable de formation des équipes de recherche aux technologies numériques. A ma connaissance, mais je peux me tromper, la composition du cocktail n’est pas totalement standardisable et ne peut faire l’objet de procédures automatiques. »

Pour ma part, et depuis que je travaille dans ce domaine du CNRS, je pense que l’accompagnement des chercheurs dans leurs projets doit s’appuyer sur :

  1. Un respect éditorial du projet porté par l’équipe de recherche (ER)

  2. Une implication de l’ER, par l’initiation, l’information et la démonstration, dans les problématiques propres à l’équipe IT. Ainsi elle comprend mieux les contraintes (techniques, financières, etc.) et les choix réalisés.

  3. Un respect des formats ouverts, tant sur le plan des logiciels que sur les formats de stockages des données

  4. L’établissement de phases de production qui prennent en compte la pérennité des données et des réalisations (en collaboration avec d’autres organismes pour les productions web par exemple)

Ce sont les quatre principales règles que nous respectons au CRHST et dans le cadre du CN2SV, elles sont proches de celles de l’Unité de Pierre Mounier. Je pense qu’elles doivent être utilisées ailleurs, dans d’autres équipes adossées à d’autres institutions, et j’en suis heureux. Ce nouveau métier et ces structures nouvelles au service des sources numérique en ligne, ouvrent sans aucun doute, de nouveaux horizons pour la recherche scientifique.

Alors, 2008, année zéro ?

Article sur la dématérialisation des contenus dans une phonothèque de recherche

Bonjour,
Plongé dans mes codes informatiques et dans la mise en place du DataCenter de mon laboratoire, je n’ai pas eu le temps de signaler un article sur la dématérialisation des contenus dans le monde de la recherche, de Véronique Ginouvès et publié dans HALSHS. Les aspects de l’impact de la convergence des contenus y sont également abordés.

Je m’en retourne à mon PHP

La publication scientifique dans l’espace européen de la recherche : accès, dissémination et sauvegarde à l’ère numérique

Je suis à Bruxelles pour assister à la conférence sur « la publication scientifique dans l’Espace européen de la recherche Accès, dissémination et sauvegarde à l’ère numérique », organisée par l’Union Européenne au travers de la Commission. L’un des ateliers est consacré à la e-infrastructure : il apparaît que la sauvegarde – pour conservation à long terme – des nouveaux outils utilisés parfois en tant que support des publications scientifiques (wikis, CMS, blogs, et autres outils remis au goût du jour par la vague du web 2.0) n’est très facile. Une question revient très souvant : le coût de la pérennisation à long terme. Certains évoquent une transmission permanante et fluide entre les générations d’outils (de fait nous faissons cela aujourd’hui) : mais il faudra organiser ce type de modèle au niveau Européen. Cependant, il y a de très nombreuses initiatives (le DCC est très actif en la matière, mais également le CERN), une tendance se dégage, le besoin d’intégrer, de plus en plus, à la publication numérique les données sources ayant été utilisées pour écrire l’article. Cela confirme que les flux vont être dans la question centrale de la préservation des documents numériques. Ainsi , 3 niveaux se dégagent :

  • – le stockage de la donnée
  • – sa disponibilité via un réseau (internet, intranet, extranet)
  • – la capacité des équipes ayant en charge des données numériques d’avoir les moyens de les faire migrer

Stéphane.

Bibliothèques 2.0

Bonjour,

Ce billet me permet juste signer un article qui plaira sans aucun doute au Figoblog. Cependant je peux arriver avec plusieurs jours de retard et donc ce document peut très bien être déjà référencé dans le blog des figues.

MANESS, Jack M., Library 2.0 Theory: Web 2.0 and Its Implications for Libraries, Webology, Vol 3, n°2, June, 2006. [d.c. : 15/01/2006].

Il s’agit d’une tentative de définition de la bibliothèque 2.0 – je ne suis pas vraiment un spécialiste de la Library 2.0, mais il y a des choses très intéressantes comme le Mashup dont il existe un site de référence qui est une mine d’or d’API.

J’ai commencé à faire du Mashup avec le logiciel Verity en 1999 pour le site du RAFID et celui du GIS Amérique Latine. Nous avions développé une application web dont les contenus venaient de plusieurs serveurs de base de données distants (à l’époque : ISIS, webISIS, DBMAN). Je trouve cela drôle de mettre un mot sur une pratique. L’application tourne toujours d’ailleurs, c’est peut-être du web -0.1…

Bonne journée;

Stéphane.

Europeana : la démo.

Bonjour,
Même si ce blog n’a pas la vocation de présenter et de signaler les informations sur le monde les bibliothèques numérique (il y a pour cela figoblog et le blog d’Alexandre Moatti : bibnum), je vous signale que la BNF propose sur un site « bnf » une maquette de son projet Europeana (en liaison avec la BNUE?). Une démo « Flash » permettant de voir les nouveaux services à l’utilisateur, l’utilisation d’XML-Alto (?) dans les surbrillances des résultats de recherche. A suivre…
Stéphane.

i2010: Digital Libraries Initiative et les matériaux scientifiques

Bonjour,
Sur le portail web de l’Union européenne, le projet i2010 avance lentement mais sûrement. les données scientifiques sont concernées par cette initiative. Cela complète le texte du 24 août sur la numérisation du patrimoine. Sur le plan de conservation des données numériques, il est dommage que le modèle OAIS ne soit pas signalé. Plusieurs initiative en Europe utilise le OAIS. En france, dans le monde des SHS il y a déjà les centres de ressources numériques du CNRS, mais il y en a d’autres, je pense à mon collègue Robert Vergnieux et l’Archéogrid à Bordeaux. Le modèle OAIS est fondamental pour séparer les taches et actions à mener lors du fonctionnement d’une archive contenant des matériaux numérisés à destination des chercheurs , profs ou des étudiants. Mais je suis aussi que certains projets sont très proche du modèle OAIS sans le savoir…
Stéphane.

Sciences de l’Information et industrialisation IT

Bonjour,

La numérisation de sources pour la recherche est un grand chantier, je travaille actuellement sur expérimentation, avec l’aide du CNRS : le CN2SV.
Il est assez facile d’organiser la mise en place d’un modèle OAIS, la documentation sur ces questions est abondante et les technologies assez mûres pour permettre une pérennisation in futura : c’est à dire, être assez ouvert en terme de technologie pour évoluer en douceur, petit à petit, dans le futur. Il est intéressant de voir que dans certains domaines les structures existantes sont déjà très proche du modèle OAIS et cela sans trop se poser de question sur le pourquoi du chose, bref, en faisant de la masturbation cérébrale autour de ces questions et des sciences de l’information en général. Morale de l’histoire, il faut vraiment voir ce qui se passe dans le monde de l’industrie…
Bonnes vacances et OAISement-votre ;-)

Stéphane.

Article du BBF a consulter

Bonjour, Dans mes lectures j’ai croisé l’article de G. Poupeau dans le BBF :

Poupeau, Gautier, « Blogs et wikis : Quand le web s’approprie la société de l’information« , BBF, 2006, n° 3, p. 29-37 [en ligne] Consulté le 11 juin 2006. [disponible en PDF]

Je conseille à tous les lecteurs, de mes propres pages… blognotées… et mal construites par manque temps, de lire cet article de Gautier Poupeau qui est excelent. Il nous donne une belle histoire – stratégique – du web et de l’importance des développements de middlewares scientifiques.
Je m’en retourne à mon EAD, XML, parseurs, XSLT, Ajax ;-) Bon Dimanche.
Stéphane.

Page 1 sur 2

Fièrement propulsé par WordPress & Thème par Anders Norén