Je ne suis pas d’accord sur cette affirmation.
L’évolution des infrastructures permet aussi de réduire les consommations énergétiques des réseaux.
C’est ce qu’à établi l’ARCEP pour le fixe comme le mobile par exemple.
Il faut en revanche pouvoir éteindre les infrastructures obsolètes pour concrétiser ces économies, éteindre la 2G et 3G en mobile et le cuivre en fixe sont des priorités.
S’opposer aussi simplement aux déploiement de nouvelles versions ou technologies ne permettra pas de réduire nos consommations d’énergies.
Si certaines évolutions (comme la 5G) permettent effectivement une réduction de la consommation énergétiques en phase d’usage par unité de mesure (la quantité d’énergie pour transférer une certaine quantité de données), elles ne permettent pas in fine de réduire les consommations d’énergies dans une approche systémique et ce pour de multiples raisons :
la dépense énergétique (ainsi que tous les autres facteurs environnementaux associés)
nécessaire à l’extraction des matières, la fabrication des équipements et les chantiers d’installation de ces infrastructures ne sont généralement pas pris en compte dans ces calculs, et quand ils le sont c’est avec un « pari » sur l’avenir de leur durée de vie rarement atteinte
ces nouvelles technologies nécessitent pour être utilisée de nouveaux terminaux : la 5G ne peut pas être utilisée avec un équipement 3G/4G, et l’énorme dépense énergétique (ainsi que tous les autres facteurs environnementaux associés) liée au remplacement des équipements n’est pas prise en compte dans le calcul
les gains d’efficacités marginaux seront inévitablement compensés par une augmentation des usages, c’est ce que nous apprend le paradoxe de Jevons depuis plus de 150 ans : il faut moins d’énergie pour transmettre un gigaoctet, mais les débits étant supérieurs les usages vont s’intensifier et au final la dépense globale (en intégrant par exemple la fabrication et l’usage de tous les nouveaux équipements IOT qui seront rendus utilisables par la 5G) sera supérieure.
Eteindre les infrastructures pré-existantes reviendrait à rendre obsolète tous les équipements non-compatibles avec les nouvelles technologies, ce qui serait là encore une catastrophe environnementale (sans compter les impacts économiques et sociaux d’exclusion numérique).
Tous les experts s’accordent à le dire (le Giec, Ecoinfo, le Shift, etc.) : la seule solution pour réduire nos consommations d’énergie est la sobriété, la course vers l’efficacité technologique est toujours compensée par plus d’effets rebonds.
En matière de transmission de données, cette affirmation n’est pas confirmée par les faits : les volumes explosent, la consommation énergétique reste stable (non proportionnelle aux volumes de données).
La durée de vie des terminaux est certes à améliorer, mais le remplacement « en masse » pour un nouveau protocole n’a jamais été observé. Tout au plus il concerne une ultra minorité d’utilisateurs, 1-2 %. La motivation majeure de remplacement d’un terminal est le vieillissement du précédent (batterie morte, pannes diverses, etc), pas le changement de génération. De plus un déploiement de techno mobile c’est > 10 ans, on a à peine fini de déployer la 4G que la 5G est déjà là.
Donc, qu’on reste en 4G ou qu’on passe en 5G, le rythme de renouvellement des terminaux ne changera pas vraiment pour cette raison (c’est exactement ce qu’on observe, et ce qu’on a observé déjà, sur les passages 2G → 3G → 4G).
Autre affirmation audacieuse (« inévitablement » ??). Les capacités depuis 40 ans, que ce soit en réseau, calcul, mémoire vive, stockage, ont été multipliées par environ 1 million, sur une enveloppe énergétique qui a à peine augmenté. Le principal inducteur de consommation n’est pas le volume d’usage personnel mais la diffusion des technologies dans la population, que ce soit en équipements perso ou couverture géographique des réseaux fixes et mobiles. Il s’agit tout simplement de réduction de la fracture numérique, pas d’un gaspillage « non sobre ».
Veut-on éviter de réduire la fracture numérique ? Je ne crois pas.
Par ailleurs, c’est sans compter les externalités positives : substitutions de matériel (qui a encore un appareil photo compact ? Un GPS portable ? Un dictaphone ? Ces usages se sont effondrés), transferts vers des usages moins carbonés (transport/voyage => visio, etc).
Très bien la sobriété… si elle a un sens sérieusement étayé par les résultats bénéfiques à en attendre.
Ajout :
En fait assez souvent, si, ils le sont. Mais changer de techno mobile ne veut pas forcément dire changer le matériel sous-jacent, le matériel réseau est modulaire et les technos type SDR (radio logicielle) permettent de n’effectuer qu’un simple changement de logiciel, avec adaptation matérielle mineure. Donc passer de la 4G à la 5G ne signifie pas tout mettre à la benne pour tout remplacer, c’est plutôt un changement incrémental, et les matériels 4G peuvent d’ailleurs être redéployés dans des zones où ils sont suffisants.
@PierreB et pourtant si, la consommation énergétique liée au réseau augmente bien d’un point de vue systémique. Cette augmentation n’est pas linéaire par rapport à la quantité de données, mais est soumise à des effets de seuils (par exemple une fois les équipements saturés, on ajoute d’autres équipements). Dans ce rapport de Schneider Electric ( Digital Economy and Climate Impact | Schneider Electric ) on y voit clairement (page 6) une très forte augmentation de la consommation électrique (juste sur l’usage, sans même considérer la fabrication qui viendrait augmenter ce phénomène) de l’ensemble de l’IT (y compris de la partie réseau) depuis 2015, avec une anticipation d’une hausse encore plus forte d’ici 2030.
Une faible partie de cette augmentation concerne la connexion de nouveaux humains, mais la grande majorité concerne le développement de nouveaux besoins (IOT, débits supérieurs pour regarder la TV en 4k sur son smartphone, etc.), et dans une démarche GreenIT leur utilité doit être questionnée avant qu’ils ne soient mis en service : une fois ces données consommées par des services déployés, il est généralement difficile de revenir sur des transformations de comportement. C’est le sens de cette recommandation « Questionner le besoin avant tout » . Je rappelle qu’il s’agit d’un référentiel de « bonnes pratiques de Green Data », et cette recommandation s’inscrit naturellement dans la lignée de celle-ci mise en avant par l’INR dans le GR491, et la 1.1 du RGESN .
Lutter contre la fracture numérique aurait été de permettre à toute la population mondiale de bénéficier de la 3G ou d’une connexion ADSL. Aller vers la 5G et un déploiement généralisé de la fibre alors que d’après Cisco en 2018 49% de la population mondiale n’avait pas accès à internet, ça n’est pas de la lutte contre la fracture numérique : c’est une course en avant technologique sans considération de sobriété.
Si vous avez des doutes sur les effets rebonds et les impacts indirects des évolutions des usages, je vous invite à suivre le Mooc Inria / Class’Code disponible sur FUN sur les impacts environnementaux du numérique, et en l’occurrence cette fiche concept spécifiquement qui contient de nombreuses sources et références à explorer, sur l’ensemble de ces sujets.
Nous dérivons sur des sujets qui n’ont pas grand chose à voir avec le questionnement de besoins de données ouvertes.
Je vous rappellerais donc mon premier point, qui me semble beaucoup plus important que de savoir si nous devons déployer ou non des réseaux en France où le 100% fibre sera de toute façon atteint, que l’opendata ait fait son introspection ou pas.
L’état des lieux sur les besoins / usages me semble plus vaste que celui qui est décrit ici :
Une énergie phénoménale est nécessaire pour faire avancer les choses, bien au delà de la normalité
Les externalités positives des quelques succès de l’opendata ne sont pas souvent connus.
Je ne suis ainsi pas convaincu par l’angle choisi de questionner les besoins alors que nous avons du mal à faire prendre conscience de la pertinence de cas d’usages concrets.
J’ai certainement dépensé plus de CO2 à envoyer des courriers, saisi la CADA et prêché dans le désert qu’il n’en sera effectivement produit pour déployer les infrastructures utiles à la diffusion de ces données.
Je vois de 0,05 à 0,2 %/an en taux annuel (suivant le secteur) sur 2015-2020 et idem sur 2020-2030… pas convaincu donc par le « très fort », désolé
Ce sont des référentiels de bonnes pratiques qui posent la sobriété comme principe intangible, sans considération de l’effet réel (= vider l’océan à la petite cuiller). Le principe me semble donc peu pragmatique et ne cherche pas à étayer les décisions.
La fibre consomme moins par abonné que l’ADSL (source Arcep : https://www.arcep.fr/uploads/tx_gspublication/reseaux-du-futur-empreinte-carbone-numerique-juillet2019.pdf). Ça n’aurait aucun sens de continuer à déployer de l’ADSL alors qu’il existe des technologies plus modernes et plus efficientes… réduire la fracture numérique c’est aussi augmenter la capacité des réseaux… ce qui favorise très clairement l’opendata dans des nouveaux contextes. Les efforts de « sobriété » forcée (gestion de la pénurie) sont en fait plus complexes et coûteux que la simple augmentation de capacité des réseaux : ils induisent des réseaux saturés donc quasi inutilisables, rendant caducs les investissements passés.
Alors je connais bien l’effet rebond depuis qu’il est brandi à tout bout de champ, mon point est qu’il ne s’agit pas d’une loi physique intangible mais d’un effet observable a posteriori. Le brandir a priori ne peut donc en aucun cas être un argument en soi, il doit être étayé au cas par cas.
Pour en revenir au sujet comme le suggère judicieusement @Flacombe, je pense que la sobriété en opendata ne devrait pas porter sur le volume brut de données, qui est une variable parfaitement négligeable parmi le total, mais sur leur coût (impact environnemental compris, de bout en bout) de mise à disposition. Ces coûts incluent essentiellement de la gestion administrative, qui doit rester aussi légère que possible. L’infra IT est très très loin de constituer un élément majeur dans le total, contrairement à une idée reçue tenace. Avec quelques dizaines de W on peut héberger et diffuser aujourd’hui des téraoctets de données…
L’utilité me semble difficile par nature à évaluer : ce sont les utilisateurs qui savent quoi faire des données et comment les valoriser, plus que les diffuseurs. C’est la beauté de l’opendata, permettre des services nouveaux qui bénéficient à tous et valoriser les données, sans surcoût notable pour le diffuseur.
Page 6 sur la figure 1, en sommant « Fixed Networks », « Mobile Networks » et « Network equipment use » on passe d’environ 230 Twh en 2015 (environ 12.7% du total de 2015) à 862 TWh en 2030 (environ 26.6% du total de 2030). Presque un quadruplement en l’espace de 15 ans.
Et c’est sans compter la part du « Device manufacturing » et de « IoT devices use » dont les développements sont des effets rebonds de l’amélioration des réseaux (et les voitures autonomes et autres objets qui ne rentrent dans aucune catégorie comme il est précisé dans l’article).
C’est bien l’objectif de cette recommandation, regarder au cas par cas si l’ouverture des données a une utilité dont le bénéfice sociétale ne serait pas contrebalancé par trop d’effets rebonds potentiels. Quid par exemple de l’ouverture en opendata des flux vidéos en temps réels de l’ensemble des caméras de vidéos surveillance d’une agglomération ?
Cette recommandation n’est en rien contradictoire avec le principe décrit ici, elle n’empêche pas l’ouverture de données dont des utilisateurs sauraient argumenter sur l’utilité de leur valorisation.
Cette recommandation est la seule permettant « l’évitement » qui doit intervenir avant la réduction dans le principe ERC. Sans ce critère, aucun autre n’a véritablement de sens puisque rien n’empêcherait le greenwashing permettant d’estampiller un distributeur de croquettes connecté comme étant écoconçu.
Nous n’avons pas le temps pour ça.
Je l’écris une troisième fois : 14% des collectivités concernées ont entamé une démarche d’ouverture.
Ce serait contraire au RGPD et au L311-6 du CRPA. Aucun besoin de se poser davantage de questions.
Vous n’avez visiblement pas fait face à tout type de réponse lorsqu’on formule des demandes.
En pratique cette proposition va juste fournir une excuse pour ne pas faire en permettant aux autorités de répondre qu’ils ont besoin de 6 mois pour faire des circonvolutions sur la réalité du besoin.
En quoi cela correspond-il à la réalité des données ouvertes en France et des risques qui ont été identifiés ?
Le temps par rapport à quoi, l’urgence climatique ?
Si je me réfère à l’introduction : « Ce référentiel est destiné à accompagner les organisations (collectivités territoriales, institutions, associations…) dans leur maîtrise de l’impact environnemental de la donnée. »
Il me semble que ce référentiel n’a donc pas pour but premier de favoriser l’ouverture des données (il y a bien d’autres contextes qui mettent en avant les arguments en faveur de l’opendata), mais bien de proposer un cadre de référence pour les organisations qui souhaitent entamer une démarche de maitrise de ses impacts. Il semble donc assez naturel que la notion de GreenData ne soit pas alignée avec celle d’OpenData, les objectifs ne sont pas les mêmes. A propos des externalités positives « potentielles » du point de vu environnemental de services numériques résultant de l’OpenData, voici un article universitaire de ce début d’été faisant avancer la réflexion : https://computingwithinlimits.org/2022/papers/limits22-final-Rasoldier.pdf dont la conclusion rappelle l’ensemble de ces échanges :
« Claims about the benefits of using digital technologies for GHG emissions mitigation form the basis of many arguments against the regulation of the ICT sector and in favor of increased spending in research and development in that field. Being able to identify as early as possible whether these claims are justified or empty promises is key to making informed decisions about our strategy to tackle climate change. »
Ceci dit ces échanges me questionnent : à partir du moment où quelqu’un considère que la donnée n’a pas d’impact environnemental, pourquoi passer du temps à contribuer à un tel référentiel axé sur les impacts environnementaux de la donnée ?
Exactement.
Rien que dans le domaine environnemental nous manquons en 2022 de la plupart des données nécessaires à l’atteinte des objectifs que le pays s’est lui-même fixé à échéance 2030 ou 2040.
Au rythme actuel, nous n’aurons pas les outils pour mesurer l’atteinte de ces objectifs à l’échéance fixée.
Nous n’avons pas le temps de s’interroger de la sorte sans plus d’éléments précis.
Personne ne s’interroge sur l’impact engendré par les refus de publier des données. Pour ma part ce sont des milliers de kilomètres par an pour produire de la donnée depuis le terrain. Des données qui existent dans des référentiels qui sont ou ont été jalousement gardés par leurs gestionnaires.
Et on nous propose de donner une excuse supplémentaires à ceux qui font un principe de ne pas publier.
Je ne suis pas d’accord avec ça, c’est contre l’objectif que cela prétend défendre.
Il me semble que le seul objectif que nous connaissions en ce moment soit la réduction des émissions de CO2.
J’ai mal dû me faire comprendre : mon propos n’est pas de dire que la production et usage des données n’ont pas d’impact mais que nous sommes actuellement dans l’impossibilité de confronter ces impacts aux avantages que cela apporte dans d’autres domaines. Pire, on considère a priori qu’ils seraient plus importants, selon quelle base ?
Les problèmes en ce moment, ce sont les transports et le chauffage, dans des proportions autrement plus conséquentes.
La moindre des choses serait de commencer en présentant de manière objective les émissions réduites par le numérique et ce que cette démarche de sobriété va apporter en terme d’impact et d’avantages. Sans chiffres et surtout sans limite, cette proposition d’interroger systématiquement le besoin sera utilisé comme une excuse dans les faits sans présenter les avantages promis. Ce que personne ici n’imagine ni n’entrevois dans le propos.
Exemple pratique : la mutualisation des travaux de voirie.
Nous savons que l’anarchie des travaux sur certaines voiries produit des centaines milliers de tonnes de CO2 par an (pour être gentil). Pour mieux planifier les choses, nous avons besoin de beaucoup de données. Cela permettra d’identifier en amont des opportunités de mutualisation et donc de réduire significativement, pourquoi pas diviser par deux ces émissions.
Alors que cela est déjà la galère d’obtenir ces données et de réunir les acteurs autour des bonnes tables, ils pourrons alors nous répondre « nous allons limiter l’impact du numérique et ne pas publier les données demandées ».
Je n’ai pas lu dans ce chapitre du guide que nous avions bien réalisé ce que cela impliquait.
J’entends les remarques sur le fait qu’il faut pouvoir mesurer les actions pour voir les améliorations possibles et leurs coûts. Mais c’est aussi un argument en faveur du statut-quo. Il y a des actions possibles vertueuses sans forcément que « l’évaluation ne deviennent une fin en soi, avec le risque de rechercher un niveau de précision qui n’a pas de sens et n’est pas nécessaire pour agir » (source: Guide des bonnes pratiques).
Cependant les remarques sur le fait qu’il vaut mieux s’occuper du chauffage et des mobilités c’est du whataboutisme. Même si c’est peu par rapport à d’autres activités en terme de proportion, nos métiers sont dans le numérique ; il convient également de s’intéresser aux améliorations possibles.
Je suis ok avec les retours sur le fait que sur l’ouverture des données, « questionner le besoin » n’est pas applicable car on ne sait pas encore quels sont les besoins ni les possibles usages. Donc je pense que cette bonne pratique est peut être à ne pas conserver ou à reformuler.
Petite contribution. J’ai beaucoup plus utilisé l’open data il y a 4/5 ans que maintenant. Certaines de mes remarques sont peut être dépréciés.
Réponse courte :
l’intérêt de l’open data est de ne pas connaitre les usages à l’avance et de permettre à d’autre de les créer. Dans ce contexte, questionner le besoin est un contre sens.
coté sobriété, rien que dans la mutualisation des infrastructures et dans les processus de mises à jour il y a du travail et des gains importants à aller chercher.
Réponse longue:
Pour moi définir un usage pour savoir si on libère de l’open data est un contre sens.
C’est pour moi contre l’esprit et l’intérêt de l’open data. Par définition, on ne connait pas l’usage à l’avance et on créé de l’innovation sans passer par un contexte de qualification MOA/MOE (contexte qui créé plus de freins que d’innovation).
Au delà de l’aspect innovation, cela permet aussi des usages non lucratifs pour les associations ou les communautés. Des usages qui aurait tué dans l’oeuf par des arbitrages budgétaire ou d’analyse du besoin.
Et même si 1% des données ouvertes étaient utilisés, c’est le jeu.
Par contre la ou il y a des gains coté sobriété numérique c’est davantage :
1/ la mutualisation : un temps la normandie avait une plateforme pour la région, le département et la métropole. J’ai posé la question du pourquoi : 1/ pourquoi plusieurs? 2/ pourquoi vous regardez pas du coté de etalab?
Réponse: c’est pour que le politique, puisse mettre en avant sous la bannière de la région/département/métropole. Mais dans 3/4 ans on fera une migration sur une plateforme mutualisé…
(Ok : donc sur coût de développement, + des collecteurs en plus pour etalab, + un projet de migration, …)
2/ le processus très manuel de création de certaines open data.
Je suis tombé sur de nombreux fichiers (du moins ceux qui m’intéressait) sur de la donnée agrégé (ce qui enlève pas mal de cas d’usage) et remplie à la main via un tableur.
Résultats : baisse de fiabilité de la donnée et de sa fréquence de mise à jour.
Et surtout d’un point de la sobriété : le processus de mise à jour est bcp plus couteux en tant et en ressources + pour les utilisateurs : un fichier mis à la main manuellement dans un format type tableur c’est aussi plus couteux à intégrer avec des risques de devoir refaire des choses quand il y un décalage dans le tableau…
Après je sais que sur ce 2ème point du ménage a été fait ces dernières années.
Bonjour Richard,
un grand merci pour ta relecture et tes retours sur ce sujet.
Je suis d’accord avec toi. L’idée de cette production est bien naturellement de ne pas aller à l’encontre de la philosophie de l’OpenData, sans présupposer des usages potentiels. C’est pourquoi nous allons nuancer ici le propos de cette fiche.
« Sans renier la notion d’ouverture « par défaut » qui invite à publier toutes les données que la collectivité possède, il est recommandé de privilégier (prioriser) les données qui sont expressément demandées, en particulier lorsque le volume ou le coût de mise à disposition est important. S’il y a demande, il y aura usage. Et plus les données concernées respectent un standard, plus l’usage sera productif. »
Je pense qu’on peut le tourner dans tous les sens, mais en fait si, ça renie… C’est explicitement contraire à la loi et à la philosophie de l’open data. Ça ne serait pas grave si ce n’était pas écrit par une association dont l’objet social est de promouvoir l’open data…
Je le tournerais à l’inverse : une fois qu’elle aura ouvert toutes les données qui lui sont demandées (on en est en général loin, il suffit d’aller faire un tour sur madada pour s’en convaincre), une administration pourra intégrer parmi ses critères de priorisation un équilibre utilité anticipée / coût environnemental évalué (et pour accompagner depuis six ans des clients à établir ce genre de priorisation, c’est très difficile car on ne dispose que rarement d’éléments objectifs pour évaluer ces critères).
Nous te remercions de ta contribution, cela nous permet de remercier toutes celles et ceux qui ont participé à l’élaboration de cette première version du Référentiel GreenData. Nous notons bien cette remarque évidemment pertinente, comme Datactivist sait les formuler, elle nourrit la réflexion et une reformulation peut être envisagée bien entendu. Pour autant, tu partageras je l’espère le fait qu’il serait regrettable qu’une association qui accompagne, fédère et représente les collectivités locales engagées dans l’ouverture de la donnée, n’étudie pas un des enjeux actuels et majeurs des territoires qu’est la transition. C’est par ailleurs une commande politique de notre Conseil d’Administration – constitué d’élus territoriaux – que de traiter la sobriété numérique. Aussi, il ne s’agit pas et en aucune manière de « renier » la moindre obligation en matière d’opendata. L’accès par principe à la donnée est en effet l’objet de l’association OpenDataFrance et nous militons au quotidien, au nom de nos membres, pour accélérer cette ouverture de données de qualité, pour tout mettre en œuvre pour leur permettre de répondre dans les meilleures conditions aux attentes des citoyens. Parmi ces attentes, il y a également la question de réinterroger l’impact du numérique et nous ne pouvons ignorer cet aspect en tant que promoteur de l’ouverture de la donnée publique et d’intérêt général. Ce programme GreenData est co-construit avec de nombreux acteurs territoriaux et experts bénévoles et nous sommes bien entendu très sensibles à vos retours, et celle-ci permet de lever toute ambiguïté.
Merci Nathalie ! je ne remets évidemment pas en cause la légitimité et le bien-fondé du chantier, bien au contraire, je me réjouis qu’ODF s’empare d’un sujet qui est effectivement une préoccupation des collectivités. Mon point - et tu excuseras le ton peut-être un peu vif, tu sais la passion qui nous anime chez Datactivist comme vous chez ODF - est simplement que nous avons collectivement intérêt à être attentifs à ne pas offrir d’arguments supplémentaires à tous ceux qui font déjà obstacles à l’ouverture des données - et ils sont nombreux.
[mode avocat du diable on] Au passage l’argument peut être à double sens ! Car selon les usages envisagés, ces derniers pourront être beaucoup plus énergivores que la simple exposition des données (exemple : entraînement d’un modèle de machine learning). Auquel cas… le seul objectif environnemental dicterait que ce soit les données les moins utiles qui soient priorisées pour l’ouverture ! [/mode avocat du diable off]