Dans le cadre de la seconde journée inter-partenaires du programme Open Data Impact chez Mozilla, nous avons travaillé sur un sous-ensemble des défis autour de la thématique “dépasser les frontières de l’open data”.
Après 8 ans d’expérimentations et de retours de terrain, nous nous proposons de réinterroger les dogmes et les frontières de l’open data. Mieux connaître les réutilisations - sans pour autant fliquer les usagers -, imaginer un open data qui se matérialise autrement que par des portails open data, proposer des données qui suscitent le débat et qui ne sont plus inoffensives: autant de nouvelles pistes à creuser et à tester ensemble.
Notre groupe a échangé pour commencer à détailler ces défis et imaginer de premières pistes d’exploration.
"Tracer l’utilisation sans l’entraver ?"
Conditionner les usages à une identification est une des lignes jaunes initiales de l’open data. Est-il pourtant possible de tracer plus finement et plus systématiquement les usages sans les entraver ? Faut-il suivre les utilisateurs … ou les utilisations ?
Le groupe a ainsi jugé qu’il était OK de tracer les utilisations sans pour autant chercher à tracer les utilisateurs eux-mêmes. Plusieurs stratégies ont été évoquées, dont celle du “pot de miel”: proposer des fonctionnalités qui donnent envie de se faire connaître (par exemple sur data.gouv.fr: publier une réutilisation, un nouveau jeu de données, les étoiles, etc.), accès à des API.
Il a ensuite été question du moment où il serait pertinent d’interroger les utilisateurs sur les usages qu’ils font des données: par exemple lors du téléchargement d’un jeu de données: “si vous en faites un usage, vous pourrez le faire connaître sur notre plateforme”.
Plusieurs participants ont évoqué une difficulté: l’utilisateur ne sait pas forcément, quand il télécharge un jeu de données ce qu’il va en faire. On risque de mesurer des intentions d’usages plutôt que des usages réels. Un enquête post-téléchargement serait sans doute plus efficace.
Idée: organiser, de manière coordonnée sur plusieurs portails français, une enquête pendant 1 mois en invitant les visiteurs à répondre à quelques questions
Deux autres pistes ont été évoquées pour contribuer à mieux connaître les utilisations:
- renforcer le rôle d’animateur du producteur, 1 jeu de données = 1 communauté,
- publier une méthodologie pour repérer les réutilisations (veille, repérage)
Des données qui grattent
Le second sous-défi concerne les données qui grattent, “pour un open data qui ne soit pas inoffensif”. Les avis sont assez tranchés au sein du groupe: certains estiment que la plupart des données sont totalement inoffensives, d’autres jugent au contraire que les données qui grattent existent (par exemple dans le domaine de la pollution de l’air) mais ne sont pas toujours bien identifiées par ceux qui pourraient les faire parler (les journalistes, les militants, etc.). Un consensus émerge autour de l’idée que le débat public gagnerait à être alimentée par des données publiques, ce qui est peu le cas aujourd’hui.
Idée: La Gazette des Communes pourrait remettre un prix Open Data “La collectivité la plus courageuse” pour récompenser un effort d’ouverture d’une donnée qui gratte.
Open data sans portail
Plusieurs pistes ont été évoquées pour imaginer un open data sans portail:
- mettre les données là où sont les réutilisateurs (ex. service-public.fr, site de la collectivité, …)
- travailler la physicalisation des données, les rendre plus tangibles (cf. Data Literacy Conference),
- décentraliser techniquement la publication et la diffusion des données (protocole Dat).
Idée: éclater les fonctions des portails qui sont aujourd’hui intégrées: préparation, production, publication, diffusion, réutilisation
Nouvelles frontières
Enfin, le groupe a identifié d’autres thèmes qui pourraient constituer de nouvelles frontières de l’open data:
- De l’open data à la circulation de la donnée (penser en continuum comme le fait le Data Spectrum de l’Open Data Institute),
- Aider les gens à devenir des producteurs de données (outils, accompagnement, animation)
- Mobiliser de nouvelles sources de données: capteurs, IoT, pour un open data temps-réel