Cet article est très stimulant et bien clair sur les opportunités offertes par le web de données pour les institutions culturelles.
J’apporte un bémol (hélas) étant aussi producteur de données culturelles. Dans le domaine des archives nous avons mis de nombreuses années à créer des bases en XML. Les centres d’archives sont encore loin de tous avoir la description de leurs fonds dans ce standard, et les données ne sont que rarement complètes et correctes. Le portail `France Archives commence à tenter d’agréger les données via des liens ARK mais cela est encore très lacunaire.
Un projet de standard de description RiC (Records In context) et une ontologie dédiée RiC-o est en cours au niveau international. Il me semble très compliqué pour les archivistes de s’investir à nouveau dans l’apprentissage de nouveau standard alors qu’ils maîtrisent à peine la logique XML-EAD. Compliqué aussi pour les institutions de petites tailles ou moyennes de remettre déjà à plat leur solution SI pour passer à une logique de websem.
Si les perspective évoquées dans l’article sont réelles, je m’interroge tout de même sur l’équilibre coût/besoin ou demande en la matière.
oui, pour préciser, l’article cité date de 2016, je crois que depuis les gens sont devenus plus… réalistes sur le web sémantique. Même si Google a redonné un coup de boost aux data sémantiques hier
Josée Plamandon (qui a participé à cet article) vient de partager ce lien vers la revue Arbido (revue des archivistes suisse) sur le lien archives et wikidata.
Cela peut permettre de mettre un pied dans le websem sans trop d’apprentissage et mettre en valeur nos collections.
Ces discussions ne sont pas nouvelles et elles ont eu lieu en France, il y a déjà plusieurs années autour de différentes initiatives dont le travail mené par le Ministère de la Culture en collaboration avec l’INRIA pour mettre en place le chapitre français de Dbpedia (http://fr.dbpedia.org). Nous avions aussi développé (et synthétisé) ces idées dans le livre sorti en 2013 coordonné par Emmanuelle Bermès auquel j’avais collaboré avec Antoine Isaac (http://www.electrelaboutique.com/ProduitECL.aspx?ean=9782765414179).
PS : je fais ça en plusieurs réponses, car le système ne veut pas que je publie plus de 2 liens
Du côté des archives, les référentiels du SIAF ont été publiés selon les principes du Linked Data en 2010 (http://data.culture.fr/thesaurus/page/servicesProducteurs/vocabulaires?serviceProducteur=Service+interministériel+des+Archives+de+France) et j’ai formé la même année un groupe d’archivistes du SIAF et des Archives nationales.
Si ces discussions ne sont plus autant aujourd’hui sur le devant de la scène en France, c’est justement parce que nous avons pu tester ces technologies en grandeur réelle (à la différence peut-être de nos cousins canadiens, oui, oui, nous étions en avance… Il faut rappeler que data.bnf.fr est sorti en 2011 et que le groupe Library Linked Data du W3C a été dirigé par deux Français et a rendu ces conclusions en la même année) et que nous avons constaté un certain nombre de problèmes, comme le signale d’ailleurs Joël. J’avais évoqué les principaux dans ce billet qui dressait le bilan de 15 ans d’activité en matière de gestion de l’information numérique : http://www.lespetitescases.net/bilan-reflexion-sur-la-gestion-des-donnees-numeriques et la meilleure preuve des difficultés rencontrées est l’abandon presque total du portail britannique pour ces technos alors même que dans la première version, elles étaient énormément mises en avant (TIm Berners-Lee oblige…).
Il faudrait que je trouve le temps d’écrire une synthèse plus poussée sur la question. Même si les principes du Web de données et les technologies du Web sémantique constituent encore à ce jour les technos les plus intéressantes pour garantir l’interopérabilité et une exploitation fine de la donnée structurée, ils se révèlent très complexes à mettre en place (sans compter les soucis de scalabilité, de gestion de la donnée et des transactions…) d’autant que les compétences sont rares et que les développeurs sont réfractaires, les réutilisateurs ne connaissent pas ces technos, les trouvent complexes et les boudent.
Bref, je pense que ces technos sont intéressantes pour exposer et libérer des données très riches pour une communauté de niche (essentiellement le monde culturel lui-même et quelques chercheurs), mais si l’objectif du projet de libération des données vise à essaimer le plus possible ses données, ces formalismes ne sont pas adaptés. Par ailleurs, même si ce travail est antérieur à l’arrivée de ces technos, elles nous ont obligés à avoir (ou elles ont permis d’accélérer) une vraie réflexion sur la modélisation de nos données (et on le constate dans tous les milieux culturels FRBR pour les bibs, CIDOC-CRM pour les musées et maitenant RIC pour les archives) et c’est déjà un gros morceau. D’autres initiatives utilisant ces technos (et/ou s’en inspirant) donnent des résultats intéressants et sont à surveiller de près : Joël faisait allusion à l’utilisation par Google dataset search des métadonnées en JsonLD utilisant schema.org, on peut évidemment aussi citer Wikidata qui pour le coup est le contre-exemple de tout ce que j’ai pu dire plus haut et qui devient peu à peu un référentiel central de données structurées (loin de la décentralisation promise par le Linked Data malgré tout )…
Voilà j’espère que j’aurais pu donner quelques éléments pour compléter cette discussion
Un événement comme celui qui est rapporté dans cet fil de discussion a servi à sensibiliser divers professionnels des musées aux enjeux et pistes de réflexion sur l’interopérabilité et l’accessibilité des données.
Monsieur Poupeau a, hélas, tout à fait raison quant au retard que le Québec (et, très probablement, le reste du Canada) affiche concernant l’acquisition de connaissances et de compétences en matière de données liées, au sein des instances ministérielles et institutions, dans le secteur culturel. Et cela, tant du côté des sciences de l’information que de celui des technologies.
Nous n’avons pas de feuilles de route/rapports et de chargés de mission pour approfondir les concepts et enjeux techniques afin d’éclairer et accompagner des initiatives venant du terrain. Nous devrions logiquement nous appuyer sur ce qui a été réalisé/constaté ailleurs, mais cela ne semble pas être le chemin préconisé. Nous en sommes donc encore à la vulgarisation de concepts et à l’élaboration de preuves de concepts. Vous croiserez bien d’autres publications de ce type ; )
Merci pour cet aperçu très concis. De notre côté de l’atlantique, les initiatives venant des
différents milieux culturels sont presque toutes orientées vers la production de données structurées Schema ou vers le versement de données dans Wikidata.
Un MOOC a été développé suite au rapport sur la découvrabilité.