Category Archives: Pratiques métiers – Culture

Le numérique au secours des musées : une inscription latine en 1200 fragments

Souvent, devant une œuvre antique issue de fouilles, le visiteur de musée est surpris que « l’on ait pu retrouver cela » ou « reconstituer ceci » : une mosaïque, une sculpture… Encore plus quand il sait que les archéologues, au moment de la découverte, avaient face à eux des milliers de minuscules fragments en vrac ! Depuis plusieurs décennies, l’informatique permet de faciliter et d’outiller ces patientes reconstitutions/restaurations. Cela profite notamment à certains objets de musée laissés en réserve depuis des décennies faute d’avoir pu « percer leur secret » auparavant. 

Lors du colloque « Les nouvelles technologies appliquées au patrimoine » qui s’est tenu au musée du Quai Branly les 6 et 7 novembre, deux chercheurs (Antony Hostein et Éric Fauvet) communiquaient sur un projet en cours au musée d’Autun, qui vise à reconstituer une inscription latine en 1200 fragments que l’on pensait perdue. Voici mes notes sur ce fabuleux défi, qui illustre parfaitement comment le numérique ouvre de nouvelles voies pour la conservation et la restauration du patrimoine ! 

Autun fragments marbre inscription

Quelques uns des 1200 fragments de l’inscription latine d’Autun (photo issue du carnet de recherche du projet)

Continue reading

IFLA 2014 : Les bibliothèques d’art face au défi de l’édition électronique (5)

L’Institut National d’Histoire de l’Art, à Paris, accueille du 12 au 14 août l’une des nombreuses conférences satellites du 80e congrès mondial des bibliothèques et de l’information de l’IFLA (Lyon, 16-22 août 2014). « Les bibliothèques d’art face au défi de l’édition électronique : nouveaux formats, nouveaux acteurs, nouvelles solutions » est le thème retenu. 

Synthèse de mes notes pour la cinquième session de conférences, dont vous pouvez retrouver le programme ici. En fonction de la mise en ligne des PowerPoint, je complèterai ou corrigerai ces notes.

Session 5 – Mettre en boîte le numérique ? Collecter et conserver la création artistique

La dernière session de la préconférence était animée par Anna Svenbro, du service du Livre et de la Lecture au Ministère de la Culture et de la Communication. Autour de la table, étaient présents Clément Oury et Françoise Jacquet, pour parler du dépôt légal du Web à la BnF ; Claire Leroux, directrice du laboratoire ARNUM pour évoquer la préservation de l’art numérique ; Stephen J. Bury et Walter Schlect (Frick Art Reference Library & Pratt Institute Library) pour présenter le plan d’archivage du web du New york Art Resources Consortium

Le dépôt légal du Web à la BnF

Internet produit son propre patrimoine, qu’il est important de conserver avant qu’il ne disparaisse. Les menaces qui pèsent sur les contenus du web sont nombreuses : disparition du support physique, obsolescence matérielle et logicielle. Les rapports aux contenus ont évolué : ainsi, un livre matériel ne peut être lu simultanément que par un seul lecteur, mais si ce livre matériel disparaît, il en existe des centaines voire des milliers d’autres exemplaires. En revanche, une ressource numérique peut être consultée simultanément par un nombre infini de lecteurs, mais si le point d’accès (URL ou contenu du serveur) disparaît, la ressource n’est plus accessible, voire définitivement disparue.

Ainsi, Clément Oury a cité le cas du site web de l’Élysée, refondu de fond en comble à chaque élection. Il semble qu’aux dernières élections, les nouveaux occupants du palais aient supprimé des serveurs tous les contenus de leurs prédécesseurs, sans même les archiver sur les serveurs ! C’est notamment pour pallier à ce genre de manquement que le dépôt légal du web agit.

L'interface des archives de l'internet français, consultable depuis les postes de la BnF

L’interface des archives de l’internet français, consultable depuis les postes de la BnF

Continue reading

IFLA 2014 : Les bibliothèques d’art face au défi de l’édition électronique (4)

L’Institut National d’Histoire de l’Art, à Paris, accueille du 12 au 14 août l’une des nombreuses conférences satellites du 80e congrès mondial des bibliothèques et de l’information de l’IFLA (Lyon, 16-22 août 2014). « Les bibliothèques d’art face au défi de l’édition électronique : nouveaux formats, nouveaux acteurs, nouvelles solutions » est le thème retenu.

Synthèse de mes notes pour la quatrième session de conférences, dont vous pouvez retrouver le programme ici. En fonction de la mise en ligne des PowerPoint, je complèterai ou corrigerai ces notes. Attention : j’ai publié le compte rendu de la session 4 avant celui de la session 3, ce dernier ne saurait tarder à venir… 

Session 4 – L’exploration de plateformes numériques pour une édition d’art innovante

Le modérateur de la quatrième session était Jan Simane, directeur de la bibliothèque de l’Institut d’histoire de l’art de Florence. Il nous a rappelé que si, avec le numérique, le rôle des éditeurs change, les habitudes des usagers aussi. Il est impératif que les bibliothèques d’art s’y adaptent. Les rencontres comme celles-ci sont donc essentielles, afin que les responsables des bibliothèques sachent ce qui se passe à l’extérieur (c.-à-d. chez les éditeurs) et soient ainsi armés pour relever les défis du numérique.

Vincent Piccolo, éditeur, est intervenu pour présenter Art book Magazine puis Carina Evangelista, également éditrice, nous a entretenus des avantages des catalogues raisonnés numériques à travers l’exemple d’Artifex Press.

Continue reading

IFLA 2014 : Les bibliothèques d’art face au défi de l’édition électronique (2)

L’Institut National d’Histoire de l’Art, à Paris, accueille du 12 au 14 août l’une des nombreuses conférences satellites du 80e congrès mondial des bibliothèques et de l’information de l’IFLA (Lyon, 16-22 août 2014). « Les bibliothèques d’art face au défi de l’édition électronique : nouveaux formats, nouveaux acteurs, nouvelles solutions » est le thème retenu.

Synthèse de mes notes pour la seconde session, dont vous pouvez retrouver le programme ici. En fonction de la mise en ligne des PowerPoint, je compléterai ou corrigerai ces notes.

Session 2 – Les publications numériques d’art en open access

Martin Flynn, directeur honoraire des services d’Informations au Victoria and Albert Museum était le modérateur de cette seconde session consacrée aux publications numériques d’art en open access. La première intervenante, Alexandra Büttner, historienne de l’art, a présenté le programme open access de la bibliothèque universitaire de Heidelberg. Puis Sylvain Machefert, bénévole à la fondation Wikimédia France et par ailleurs bibliothécaire, est venu présenter un partenariat entre Wikimédia et le Centre Pompidou.

Un modèle pour l’avenir de l’édition d’art : l’open access à la Bibliothèque universitaire de Heidelberg

Note personnelle : La bibliothèque universitaire de Heidelberg est un lieu innovant, dont les services ont été loués par tous les étudiants que je connais. Son offre numérique et ses horaires d’ouvertures sont particulièrement appréciés.

Depuis 2006, la bibliothèque universitaire de Heidelberg est engagée dans la promotion de l’Open Access numérique, notamment à travers sa plateforme « Art-Dok », spécialisée dans l’histoire de l’art, où les chercheurs du monde entier peuvent déposer leurs travaux (monographies, thèses, articles, conférences, littérature grise) sans frais. Il s’agit d’un espace d’auto-archivage de pré- et post-publication avec évaluation par les pairs. La plateforme abrite actuellement plus de 2600 textes et s’inscrit dans le réseau plus vaste des bibliothèques virtuelles d’art allemandes, appelé arthistoricum.net.

Plateforme "Art-Dok" à la bibliothèque universitaire de Heidelberg

Plateforme « Art-Dok » à la bibliothèque universitaire de Heidelberg

  Continue reading

IFLA 2014 : Les bibliothèques d’art face au défi de l’édition électronique (1)

L’Institut National d’Histoire de l’Art, à Paris, accueille du 12 au 14 août l’une des nombreuses conférences satellites du 80e congrès mondial des bibliothèques et de l’information de l’IFLA (Lyon, 16-22 août 2014). « Les bibliothèques d’art face au défi de l’édition électronique : nouveaux formats, nouveaux acteurs, nouvelles solutions » est le thème retenu.

Synthèse de mes notes pour la première demi-journée de conférence, dont vous pouvez retrouver le programme ici. En fonction de la mise en ligne des PowerPoint, je complèterai ou corrigerai ces notes.

Ouverture de la pré-conférence

Je n’ai pas pu assister à la présentation de la pré-conférence par Véronique Thomé et Sandra Brooke ni à la première intervention, puisque je m’occupais de l’accueil des participants. Le résumé de la présentation de Milan Doueihi (philosophe et historien des religions, Université de Laval), consacré aux Mutations du document à l’ère numérique est disponible ici.

Présentation du paysage numérique français

Pour une mise en contexte, Anne-Elisabeth Buxtorf, directrice de la bibliothèque de l’INHA a brossé, en trente minutes, un rapide panorama de l’édition numérique française. Son exposé était construit autour de trois axes : enjeux économiques, l’édition universitaire et la place des musées.

Le marché du livre numérique

Le livre numérique est devenu l’un des marronniers de la presse généraliste française qui s’interroge régulièrement sur la fin (supposée prochaine) du livre papier ou des bibliothèques. Pourtant, le marché français ne semble pas avoir définitivement viré en faveur du numérique. En effet, si 49 % de la population française achètent des contenus numériques, le livre numérique (e-book) ne représente que 16% de ces contenus.

Le monde de l’édition est en pleine effervescence. En 2013, une loi sur les contrats d’édition est venue encadrer l’édition numérique française, fixant les termes des nouveaux liens entre les auteurs et les éditeurs. Comme le livre papier, la TVA du livre numérique est fixée à 5,5%. L’offre numérique se diversifie et les contenus disponibles sont de plus en plus nombreux. À la BnF, le projet ReLire entend recommercialiser sous forme numérique des livres épuisés encore sous droit d’auteur. Les librairies ont fait un effort important pour offrir des plateformes de vente tandis que les bibliothèques commencent à constituer des collections numériques et à prêter des liseuses à leurs usagers. Continue reading

Le programme HADOC

En 2014, j’ai assisté à plusieurs conférences  sur le programme HADOC (atelier à l’INHA et journée d’étude du Labex Les Passés dans le présent)  : voici une synthèse de mes notes. 

Une masse de ressources

Sous l’égide du Ministère de la Culture, les institutions françaises ont produit des milliers de ressources documentaires (bases de données, applications métiers), aujourd’hui disponibles en ligne. Ces ressources, si elles sont de très haute qualité et tendent à l’exhaustivité, ne sont pas toujours visibles (bases de données situées dans le web profond – non moissonné par les robots) ni tout simplement conçues dans un but de diffusion. En effet, de nombreuses données ont été produites dans des contextes « métiers », dans un but avant tout de gestion.

Nous avons donc à faire à une masse de ressources énorme, dont les contenus sont très divers. Étant donné que ces ressources ont été produites dans des modèles métiers différents, les vocabulaires, outils, schémas de métadonnées employés varient énormément d’une base à l’autre.

Le MCC est aujourd’hui confronté à de nouveaux enjeux, tant en terme de production que de diffusion :

  • En terme de diffusion :
    • proposer un accès unifié à l’ensemble des ressources (portails, métamoteurs, à l’exemple du moteur collections) avec une approche inter et transdisciplinaire
    • l’ouverture des données publiques : quelles données libère-t-on, sous quels formats et quelles licences ? Parfois, les données libres se trouvent dans des ressources documentaires qui sont, elles, soumises au droit d’auteur.
  • en terme de production :
    • comment rationaliser l’action publique (éliminer les ressaisies, la redondance informationnelle) ?
    • comment mieux piloter l’activité en disposant de données de référence (et à long terme améliorer les processus métiers) ?

Le programme HADOC est une réflexion sur ces enjeux de production et de diffusion.

Les enjeux des modèles de représentation dans le secteur culturel

Il est aujourd’hui nécessaire de concevoir et partager des modèles de représentation riches. Dublin core, très largement utilisé jusqu’ici pour présenter des métadonnées, ne représente plus une solution performante car son modèle est à plat. On souhaite disposer de modèles plus profonds. Des modèles orientés événements ont émergé, tels que CIDOC-CRM dans les bibliothèques et les archives, EDM ou FRBR.

Un modèle conceptuel dit « orienté événement » est conçu pour suivre la vie d’un objet, caractérisé par une succession d’événements (création, achat, classement, restauration, par exemple)

HADOC

Tout cela implique évidemment un effort de consolidation des données : d’une part les contenus doivent être riches et de qualité, d’autre part fixes et uniques, c’est-à-dire disposant d’une identification unique et pérenne. L’un des objectifs du programme HADOC est de déplacer cet effort le plus en amont possible dans le cycle de vie des données.

Le programme HADOC a été lancé en 2008. Il a commencé par un brainstorming très large, rassemblant des professionnels de métiers différents. Les pratiques métiers ont été analysés, notamment dans leurs modules fonctionnels. Une question primordiale a particulièrement été étudiée : « comment identifie-t-on un bien culturel ? » S’il est assez facile de remplir les cases pour un objet, il est plus compliqué de documenter une photo qui illustre un objet (par exemple, une photographie de la Tour Eiffel).

Nous sommes confrontés par ailleurs à différents problèmes :

  • les saisies multiples : plusieurs services créent des fiches pour un même artefact (exemple, pour un monument)
  • les formats multiples
  • la granularité (certaines fiches sont sommaires, d’autres sont très détaillées).

Par exemple, une même petite église peut être documentée sur une dizaine de base sous des appellations différentes ! Les informations sont lacunaires et les datations sont bancales. On comprend mieux pourquoi l’harmonisation des modèles de données est un enjeu prioritaire.

Au-delà de l’enjeu d’optimisation de la production, il y a celui de l’intégration sur le web sémantique : les robots du web ne sont pas en mesure de comprendre le texte libre. L’harmonisation ne peut pas se faire n’importe comment : ainsi, il n’est pas envisageable de créer un modèle métier unique ! La modélisation, l’alignement et l’harmonisation doivent d’abord concerner les données les plus partagées (format des dates, nomenclatures, formats de stockages des données…). Notons que le patrimoine et les musées sont moins normés que les archives et les bibliothèques.

Il faut par ailleurs harmoniser les contenus en partageant le même vocabulaire scientifique et technique. Cela implique dans un premier temps de clarifier les notions : qu’est-ce qu’un domaine ? Un support ? Un matériau ? Clarifier les données en les exprimant sous une forme commune et une sémantique commune. Exprimer sous une forme commune, une sémantique commune, clarifier les données. La question de l’identification est ici également cruciale. Nous avons une diversité de formes qui désignent une seule et même chose. Par exemple, les auteurs : il est indispensable d’avoir un référentiel d’auteur, avec un URI unique et pérenne. Cela préparera les données pour le web sémantique.

Comment HADOC fonctionne?

HADOC vise à engendrer un cadre normatif pour la production de données culturelles, via des modèles harmonisés, des référentiels partagés, des normes et des nomenclatures (standards). À terme, il faut faire émerger un référentiel des biens culturels qui serve à la fois à la production et à la diffusion. Une image pour mieux comprendre : il faut voir ces données comme la carte d’identité de l’objet. HADOC a été lancé en 2008. Les chantiers menés par le programme peuvent être perçus comme des briques : la brique « modèle de données », la brique « harmonisation des référentiels ». En 2013, une première version d’un modèle de données a été publiée. Notons que le modèle de production est très inspiré des modèles de diffusions tel le CIDOC CRM. Ce modèle a servi à la conversion d’un fonds pilote (la base Mérimée). Ce travail est encore en cours, ce qui n’a pas empêché ce modèle 1.0 (en UML) d’être utilisé lors de l’élaboration de la nouvelle base du MUCEM. Une seconde version est en préparation, car la confrontation à des cas concrets (Mérimée, archéologie) a enrichi le modèle. HADOC intègre déjà des relations « alignables », « mapables » pour la diffusion.

La seconde brique concerne la gestion des référentiels. Une centaine de vocabulaires sont présents dans les applications métiers. L’équipe les a exportés dans GINCO, un outil de gestion partagé. Un code ouvert a été développé sur la forge logicielle GITHUB afin de favoriser une démarche collaborative qui permet de traverser les métiers. À l’intérieur de GINCO, les vocabulaires ont été alignés (on ne fusionne pas les vocabulaires mais les aligne en créant des passerelles.) tout en respectant les normes et standards (ISO, SKOS, RDF).

Ce projet a été développé en an grâce à la méthode Agile : 15 jours de développement, une semaine d’application et ainsi de suite. Le résultat est accessible sur data.culture et peut s’intégrer à des applications métiers sous forme de briques de web-service. La version 2 intégrera l’alignement. Poursuite des chantiers de modélisation : description physique du bien numérique, ressource multimédia, production du schéma RDF, élaboration d’un référentiel d’acteurs. Le manque de personnel ralentit le travail.

Pour aller plus loin

Documentation