Suite à ce billet précédent, La sobriété numérique, oui mais pour quoi faire ?, il est apparu nécessaire de revenir sur cette nouvelle tendance qui consiste à s’attacher au volume de données pour évaluer les impacts du numérique, et démontrer à nouveau en quoi cela n’a aucun sens.
En effet, le législateur se prépare à demander à nos fournisseurs de téléphonie et d’accès Internet de faire figurer sur nos factures une évaluation de l’équivalent CO₂, abrégé eqCO₂ (car des conversions existent pour d’autres éléments provoquant également un effet de serre) dérivant « directement » de notre consommation de données.
Profitant du contexte — étude en ce moment au parlement de la loi contre le gaspillage –, je vais tenter de montrer ici pourquoi cela ne protégera aucunement l’environnement et risque de nous orienter vers des politiques publiques désastreuses.
L’un des promoteurs de cette nouvelle croisade est le Shift Project. Le Shift Project est un think-tank associatif bien connu dans les milieux environnementaux, dont l’objectif est de proposer des mesures de politique publique pour respecter les accords de Paris et mener au mieux la lutte contre le réchauffement climatique.
Le Shift a publié en 2019 un rapport sobrement titré Climat : l’insoutenable usage de la vidéo en ligne, ciblant donc très explicitement la vidéo comme mauvais élève à abattre, en raison de son fort poids dans le trafic actuel des réseaux. Devant les levées de boucliers et des erreurs manifestes de méthodologie (facteur d’exagération de 20 à 50 de l’impact eqCO₂ sur certains chiffres publiés, ceux qui ont été le plus repris dans les médias), le Shift Project a fait discrètement machine arrière dans son rapport 2020 au titre plus sobre, Déployer la sobriété numérique, dans une note de bas de page :
Cependant, le mouvement de fond consistant à vouloir réduire la consommation de données est bien lancé en France, et il subsiste, alimenté la plupart du temps par une unique source, les études du Shift Project et de Carbone 4, le cabinet de consultants associé. On l’a notamment vu dans le débat contre la téléphonie 5G, où le chiffre –faux — le plus cité dans les médias français sur l’augmentation de la consommation électrique provenait d’une (trop) rapide multiplication issue d’une tribune du Shift publiée par le Monde, extrapolant abusivement des consommations d’équipements chinois spécifiques à l’ensemble des antennes du parc français.
Or, sur le fond, la critique de la consommation de données est fondée sur un choix non explicité et arbitraire, donc extrêmement contestable : la répartition de l’impact CO₂ du numérique par ses différents acteurs (opérateurs, équipementiers, services, etc) devrait se faire au prorata du volume de données consommé. Nous allons voir en quoi ce choix est infondé.
Comment évalue-t-on le poids du numérique ?
Les évaluations dites Top-Down (parce qu’elles ne s’intéressent qu’aux grandes masses sans entrer dans les détails de fonctionnement) incluent des Analyses du cycle de vie, donnant lieu à des rapports de « responsabilité sociale d’entreprise » (RSE). Ces rapports consistent à auditer l’ensemble des processus d’une entreprise et à en calculer l’impact environnemental. L’équivalent CO₂ n’est qu’une partie de ces évaluations. La consommation électrique est convertie en eqCO₂ au prorata du kWh, sur un facteur dépendant des modes de production. En France, le chiffre de 60-65 grammes eqCO₂/kWh est couramment utilisé, il correspond à l’évaluation par RTE du mix moyen de production français, peu carboné.
Ce poids inclut donc l’ensemble de l’activité de l’entreprise : non seulement la partie directement productive — dans le cas d’un opérateur, ses équipements réseau, serveurs, etc — mais également les consommations des camionnettes des équipes d’installation et maintenance, les chauffages et climatisation des bureaux, la consommation d’eau courante, l’entretien des parkings, etc.
On obtient ainsi un certain nombre de chiffres, dont l’équivalent CO₂ total émis annuellement par l’entreprise, qui sont publiés dans les rapports RSE.
Comment évalue-t-on ensuite le poids en équivalent CO₂ du volume de données ?
C’est ici qu’on commence à entrer dans les raisonnements à l’emporte-pièce, ceux qui semblent sujets à caution.
On évalue le trafic total de l’opérateur tel que délivré aux utilisateurs, et on divise le eqCO₂ émis par l’opérateur par le volume de données transmis.
On obtient ainsi un chiffre artificiel en grammes de eqCO₂/Go transmis, ou parfois en kWh/Go, facilement communicable et faussement parlant.
Au passage, on suppose que le service rendu par un opérateur est intégralement celui du volume de données transmis et qu’il n’existe rien d’autre de pertinent et mesurable. Or il existe d’autres métriques non moins utiles. Pour un opérateur de télécommunications : couverture géographique, débit, taux de disponibilité, etc. Pour un service de vidéo en ligne : œuvres stockées, ouverture à des tiers pour auto-publication, etc. Pour un service de simple stockage en ligne, le coût de gestion de la quantité de données ne sera pas le même que pour un service vidéo qui a besoin de procéder à des traitements lourds d’encodage. Pour un virement bancaire ou un message Twitter, le coût individuel de traitement d’une transaction va être très élevé par rapport au volume transféré. Et ainsi de suite.
Quand on a un marteau…
Pire : une fois que cette métrique artificielle du gramme eqCO₂/Go sera popularisée et présente éventuellement sur les factures des fournisseurs d’accès comme le propose aujourd’hui le législateur, la réaction attendue de l’utilisateur va être de réduire sa consommation de données pour décarboner.
Or il est facile de montrer que cet effort est vain et que cette initiative risque de détourner notre attention d’efforts plus efficaces.
Si demain nous divisons tous par 2 notre consommation de données au vu de l’évaluation qui précède, satisfaits de faire ainsi « notre part » dans la réduction d’impact, nos opérateurs vont-ils soudain constater avec plaisir que leurs factures d’électricité, d’équipements, de chauffage, de carburant sont également divisées par 2 ?
La réponse est évidemment « non ».
Pourraient-ils démonter quelques équipements afin de réduire leur infrastructure en rapport avec la baisse de volume ? Marginalement peut-être, mais pas au point de la réduire par un facteur proportionnel.
En fait l’impact sur le CO₂ émis serait infime, probablement même pas mesurable.
Il est utile de rappeler en passant que, si l’on cherche des corrélations, l’impact en équipement et consommation électrique d’une infrastructure d’opérateur, mobile comme fixe, est principalement lié à sa couverture géographique. Si nous voulons protéger l’environnement par des mesures de restriction, il serait donc directement utile de réduire cette couverture géographique. Affirmons sans grand risque d’être démenti que ce ne serait pas une voie souhaitable : en creux, on peut voir là une confirmation que les réseaux numériques ont une utilité qui va bien au delà de la comptabilité des volumes échangés.
Pitié pour les données…
Ce choix méthodologique de clé de répartition au volume, jamais questionné, n’a donc aucun sens physique, comme expliqué ici et dans le billet cité en introduction.
Pourquoi avoir choisi le volume de données ? La métrique a l’avantage d’être simple et de sembler logique. C’est le principe du compteur d’eau ou d’électricité.
Or si le numérique a vu ses usages exploser dans nos sociétés, c’est parce qu’il ne fonctionne pas aussi simplement que cela, et parce que la logique du compteur, privilégiée par les administrations des télécoms et leurs financiers, a été abandonnée : elle ne reflétait pas du tout les coûts réels, était elle-même coûteuse et improductive, et freinait notablement l’émergence des réseaux numériques à grande échelle et à haut débit.
La comptabilisation par secteur plutôt qu’au volume
La métrique du volume de données a aussi l’avantage perçu en France de cibler — en apparence — surtout des acteurs étrangers de la vidéo en ligne : Youtube, Netflix, Disney, etc. C’est oublier que la vidéo sur hébergement personnel est désormais possible, grâce à des outils comme Peertube, développé d’ailleurs par des français. Plomber la consommation de données ne peut que décourager les utilisateurs de s’approprier ces technologies, donc empêcher toute déconcentration du secteur, pourtant rêvée par nombre de nos politiques.
Si on se place du côté des gros fournisseurs de services, l’absurdité d’imputer le CO₂ par rapport aux volumes apparaît encore plus évidente. La vidéo en ligne produirait environ 60 % du trafic Internet aujourd’hui, selon une étude citée par le Shift. Est-ce que, pour autant, les fournisseurs de service concernés produisent 60 % du CO₂ de la totalité du secteur, comme le laisse entendre l’imputation au volume ? Très probablement pas. Il serait utile de le vérifier. Personne ne semble l’avoir fait.
Nous avons besoin de méthodologies d’imputation plus rigoureuses
Si nous voulons utilement lutter contre le réchauffement climatique, il est urgent de développer des méthodologies plus rigoureuses permettant un ciblage utile des efforts à réaliser, en entreprise comme par les citoyens, mais aussi en matière de politiques publiques. Sans cela, nous courons le risque de perdre nos efforts, notre temps et pire, de rater une cible qui est déjà difficile à atteindre.
Le volume cache la forêt
Réintroduire de près — imposition au vu d’un montant équivalent CO₂ artificiel ? — ou de loin une restriction des volumes échangés serait un considérable retour en arrière, introduisant une pénurie qui ne protégerait aucunement l’environnement, au contraire : elle nous restreindrait dans les usages vertueux du numérique — par exemple, la vidéoconférence ou le télétravail qui évitent des déplacements fortement émetteurs de CO₂ et qui congestionnent nos réseaux de transport. L’Ademe a ainsi conclu dans une étude récente que les externalités positives du télétravail prédominaient.
Le numérique est avant tout un fantastique outil de copie et diffusion en masse de l’information, bénéficiant d’effets d’échelle considérables. Depuis l’époque du Minitel, les débits de données couramment disponibles à coût comparable ont été multipliés par un million (de 1200 bps à 1 Gbps). Il en est de même avec les capacités de stockage, la puissance de nos ordinateurs, etc.
On me rétorquera — c’est un slogan en vogue — qu’il n’existe rien d’infini dans un monde fini. C’est une évidence. Mais notre bon sens habituel est dépassé pour appréhender des facteurs de gain d’efficacité d’un million en 40 ans, et les analogies avec le monde physique (réseau routier vs réseaux numériques) sont inopérantes et trompeuses.
On me parlera aussi de l’effet rebond — et de même, après avoir rappelé que l’effet rebond n’est pas une théorie physique s’appliquant mécaniquement avec certitude, qu’il ne peut donc être prouvé qu’a posteriori et n’a rien d’une fatalité, je répondrai qu’il faudrait un sacré effet rebond dans les usages pour enterrer des gains d’efficacité d’un million. Je ne réserve pas 1 million de fois plus de billets de train qu’autrefois, ni ne commande 1 million de fois par correspondance, ni ne regarde 1 million de fois plus d’heures de vidéo — je suis contraint là par le monde physique, celui qui n’a que 24 heures par jour.
Un très grand merci pour ce texte qui attaque avec efficacité les gros mensonges que l’on entend sur les catastrophes climatiques liées aux transport des données.
J’avais, l’année dernière, écrit un texte qui va dans le même sens :
https://nauges.typepad.com/my_weblog/2020/02/frugalit%C3%A9-num%C3%A9rique-r%C3%A9seaux-quatri%C3%A8me-partie.html
Encore merci,
Merci beaucoup Louis pour la gentillesse et le pointeur 🙂
De rien !
Nous sommes si peu nombreux à essayer d’apporter des réponses factuelles, scientifiques à ces questions qu’il faut travailler ensemble.
On écrit un maximum de bétises sur ces sujets et c’est très grave car les conseils que l’on donne ensuite sont totalement nuls !
Ma réponse habituelle à votre argument est que les tuyaux du réseau sont dimensionnés en fonction du volume qu’on s’attend à avoir. Je vois que vous abordez ce sujet, mais brièvement et sans le chiffrer.
Est-ce que, si on limitait l’augmentation de la consommation de données, celà permettrait de diminuer les investissements sur le cœur de réseau ou les data-center ?
La réponse au premier point est oui en général, mais cela ne dit rien de la consommation énergétique induite, qui reste faible donc relativement similaire quel que soit le débit.
La réponse au second point est clairement « non ou marginalement », je pense l’avoir exprimé dans le texte dans l’autre sens : hypothèse de division par 2 du trafic. Or si la réduction d’infra permise en divisant par 2 est marginale, l’infra supplémentaire pour doubler le sera également.
Bonjour Pierre. Merci pour cet article.
Cependant je ne suis pas sûr que rattacher l’impact environnemental du numérique à une simple question d’optimisation énergétique soit le bon angle.
Surtout en France avec une électricité bas carbone.
Le bon angle selon moi c’est celui des équipements physiques.
Le développement des usages et donc des data transmis ont des impacts sur la multiplication des équipements, l’obsolescence et le fort renouvellement des équipements. Que ce soit côté utilisateur mais aussi coté serveur.
Faute de mieux, l’indicateur data consommée peut indiquer quel usage et donc quels équipements sont mobilisés (netflix donc écran 4K en wifi ou smartphone en 4G par exemple).
Et ça ce n’est pas que le shift project qui le dit en France. Le travail du collectif GreenIT aussi.
Pour info il y a un groupe public de travail de Negaoctet / Ademe pour l’évaluation CO2 / Go. Si tu veux y apporter ta pierre (sans jeu de mot), y participer ou au moins observer ce qui se dit n’hésites pas à me le dire.
Hélas, la majorité des chiffres utilisés par le Shift Project sont faux, n’ont aucune base scientifique et ne font pas référence à des études sérieuses.
Par contre vous avez raison sur le rôle clefs des équipements d’accès au numérique.
J’ai identifié 7 composants sur lesquels on peut agir pour améliorer sa Frugalité Numérique :
Les six premiers sont liés aux infrastructures :
– Centres de calcul
– Objets d’accès
– Réseaux
– Stockage de données
– Iot et IIoT
– Impression
Le septième, ce sont les usages, qui ne “consomment” pas directement de l’énergie, mais le font par l’intermédiaire des infrastructures qu’ils utilisent.
Une démarche efficace et moderne de Frugalité Numérique doit agir en même temps sur les sept dimensions.
Bonjour Richard, merci pour ton message.
“Cependant je ne suis pas sûr que rattacher l’impact environnemental du numérique à une simple question d’optimisation énergétique soit le bon angle.”
Je crois qu’on est d’accord… donc dans ce cadre, ajouter un chiffre de CO2 sur une facture en proportion du volume de données a encore moins de sens.
“Le développement des usages et donc des data transmis ont des impacts sur la multiplication des équipements, l’obsolescence et le fort renouvellement des équipements. Que ce soit côté utilisateur mais aussi coté serveur.”
C’est une opinion qui semble très populaire dans les milieux environnementaux mais elle ne semble pas s’appuyer sur des faits. Aucun équipement ne s’use plus vite si on transfère plus de données avec, c’est même une des forces du numérique par rapport au monde physique.
“Pour info il y a un groupe public de travail de Negaoctet / Ademe pour l’évaluation CO2 / Go. Si tu veux y apporter ta pierre (sans jeu de mot), y participer ou au moins observer ce qui se dit n’hésites pas à me le dire.”
Avec plaisir, on en parle en privé. Note que j’ai déjà essayé (Arcep/Ademe sur les mêmes sujets), sans succès (de mon fait — j’ai écouté des réunions mais sans m’exprimer). Ce n’est vraiment pas facile de contribuer quand on est littéralement seul face à un discours dominant contraire, et le contexte actuel (covid donc visios) rend cela encore plus ardu. Je m’étais également rendu début 2020 avec un ami à une réunion du Shift et là, peut-être parce qu’il s’agissait d’une réunion physique, s’exprimer était plus aisé, mais je me sentais néanmoins très isolé.
Bonjour, en Telecom, le dimensionnement des réseaux est fait pour pouvoir écouler le trafic “a l heure chargée” donc au moment le plus chargé de la journée. Peu importe si le reste du temps, le réseau est chargé a 5%. C est un argument de plus pour considérer que le volume de données est une mauvaise métrique
Bonjour Pierre,
Effectivement, les données kWh/Wh sont issus principalement d’analyses top-down. Les analyses bottom-up qui partent du fonctionnement des serveurs et de l’infra donnent des chiffres plus faibles mais pas nulle (Par exemple pour un CDN 0,15 Wh/Go vs 0,6Wh/Go).
Dire que le moyen de calculer l’impact du réseau est améliorable oui, dire que c’est une arnaque intellectuelle, c’est un peu fort. Les chercheurs et ingénieurs qui travaillent sur ce sujet sont à l’écoute de donnée des opérateurs et acteurs, malheureusement il n’y a encore aucune donnée technique publiée. En attendant, les chiffres bottom-down sont la.
De plus résumer “Comment évalue-t-on le poids du numérique” a la métrique kW/Go est aussi un raccourci. Par exemple, sur la partie terminal, source principal des impacts, on utilise l’énergie consommée (et pas la donnée) et les facteurs d’émission de la fabrication du matériel.
Bonjour Olivier,
Merci pour cette réponse.
J’ai un doute sur vos chiffres “bottom up” de CDN qui me semblent agréger le coût fixe et le coût marginal dans le total, donnant un résultat bien plus élevé qu’il ne devrait, puisque là encore les coûts fixes noient les coûts marginaux. Avez-vous l’étude source avec la méthodologie ?
De mon côté, en faisant une évaluation sur un serveur en ma possession, j’obtiens des chiffres 10 fois plus faibles (et c’est un serveur prévu pour des petits débits, très loin d’être optimal pour un CDN).
“Dire que le moyen de calculer l’impact du réseau est améliorable oui, dire que c’est une arnaque intellectuelle, c’est un peu fort. Les chercheurs et ingénieurs qui travaillent sur ce sujet sont à l’écoute de donnée des opérateurs et acteurs, malheureusement il n’y a encore aucune donnée technique publiée.”
Les données bottom-up sont faciles à reproduire en labo sur n’importe quel équipement… cf ce billet sur des exemples de matériel utilisable : https://signal.eu.org/blog/2020/11/27/la-mesure-automatisee-de-consommation-electrique/
Je maintiens le terme d’arnaque intellectuelle, puisque cette métrique est utilisée pour frapper les esprits avec un tout autre sens que celui qu’elle possède réellement.
“De plus résumer “Comment évalue-t-on le poids du numérique” a la métrique kW/Go est aussi un raccourci”
C’est tout à fait juste, mais cet article s’intéressait à ce sujet particulier, en lien avec la loi en cours d’examen.
Les méthodologies Bottom-up que nous appliquons ne sont pas en labo mais sur des infrastructures représentatives. Dernier example avec l’infra Canal https://greenspector.com/fr/impact-video-canal/.
Merci Olivier pour le pointeur, l’étude est intéressante sur les chiffres collectés qui donnent des ordres d’idée, en revanche je suis très réservé sur les déductions qui en sont faites : même problème sur les chiffres “synthétiques” de kWh/Go qui agrègent coûts fixes et coûts incrémentaux, laissant une impression très nettement surévaluée.
Ainsi je cite :
“Le principe est de prendre un ratio “énergie/usage type” en Wh/Go. Bien que l’infrastructure du réseau ait une consommation assez fixe et ne dépendant pas de l’usage, ce mode de calcul permet d’affecter un impact global à un usage (ici une heure de vidéo)” et surtout (citant CONVINcE) “As we are looking for an order of magnitude in energy saving, we suppose that decreasing by 30% the traffic volume in the core network induces a decrease of same ratio in network dimensioning and consequently a decrease of 30% in energy consumption in the core IP network.”
Autrement dit le choix explicite est fait de supposer une proportionnalité, après avoir admis qu’elle n’existe pas. C’est à tout le moins problématique d’un point de vue méthodologie car cela aboutit exactement au résultat ce que je critique, une image grandement faussée des effets qui entrent en jeu.
Ainsi sur vos chiffres agrégés (900 TWh pour Canal+) le cœur de réseau ne constitue que 100 TWh donc ~11 %, et là dedans on parle de coûts essentiellement fixes. Le coût incrémental du débit est bien inférieur. etc. Au final le coût du débit semble exagéré par un facteur 10 à 100 dans la métrique kWh/Go publiée. Cela semble aussi d’après ce que j’en comprends agréger les coûts de fabrication du terminal, où là la fraction de coût incrémentale due au débit est nulle par définition…
Cependant l’étude admet (même si c’est dit discrètement) que consommer plus aboutit à réduire le coût agrégé au kWh/Go (forcément, puisqu’on amortit alors mieux les coûts fixes). C’est donc là encore dommage que les propositions qui en découlent ici et là préconisent l’inverse exact…
Bonjour Pierre,
Tout d’abord, merci pour cet article.
C’est appréciable de lire ce genre de billet pour faire avancer le débat, surtout dans un contexte où il y a une surfocalisation sur les usages et la consommation de données.
Il est compliqué aujourd’hui de discuter des impacts du numérique avec les pouvoirs publics, les décideurs sans que nous soyons obligés de rappeler que l’usage à un instant t a un impact environnemental minime. Penser que réduire la consommation de données est la clé pour réduire les impacts environnementaux du numérique est dangereux, mais c’est tellement plus simple de se l’imaginer.
Il ne faut pas se mentir, cette fausse idée arrange des acteurs car pendant ce temps peu de monde s’intéresse à d’autres enjeux du numérique beaucoup plus importants qui se trouvent essentiellement lors de la fabrication des équipements, terminaux et au niveau des tensions d’approvisionnement des matières premières.
Le problème principal que je vois avec l’indicateur kgCO2 eq./ Go est qu’il est mal interprété par la sphère publique. Lire les études, leurs limites, leurs hypothèses et conclusions prend certes un peu de temps, mais permettrait aux décideurs de mieux cerner ce qui se cache derrière certains chiffres. C’est d’ailleurs ce que tu soulignes quand tu parles de “l’ensemble de l’activité de l’entreprise”.
Il serait peut-être judicieux d’afficher des valeurs absolues pour avoir une vision sur l’évolution de la consommation électrique des infrastructures réseaux, l’évolution du nombre d’équipements et de leurs impacts (à la fabrication), le nombre d’équipements réemployés/recyclés, nombre d’utilisateurs, la capacité maximum actuelle etc…
Je pense que cela permettrait de mieux mettre en perspective l’évolution du volume de données avec ces indicateurs.
Malheureusement, il n’est pas aisé d’avoir accès à ces données.
Un point d’attention, si l’on veut s’intéresser aux impacts potentiels de l’augmentation du volume de données, est de ne pas provoquer un risque de saturation des équipements. Un exemple, aujourd’hui dans les zones denses, l’ajout d’équipements (antennes 4G, 5G par exemple), devient indispensable à cause de pics qui mettent en avant que l’infrastructure est à bout de souffle et aussi en partie à cause de l’exigence d’une partie des citoyens sur les débits (on en veut toujours plus, ce qui fait que désormais c’est un argument marketing des opérateurs).
La consommation électrique ne devrait pas pour autant exploser côté réseau (du moins je l’espère), par contre ce sont des ressources non renouvelables (fabrication) que nous sollicitons de nouveau au détriment d’autres secteurs. D’ailleurs, comme la focalisation sur la consommation de données, il peut être préjudiciable de se focaliser uniquement sur la consommation électrique ou les GES.
Était-il possible de limiter ces impacts et si oui de combien? Difficile d’avoir une réponse franche sans certaines données “confidentielles” des opérateurs et équipementiers.
Côté pouvoirs publics, il faut qu’il y ait une vigilance pour éviter des situations de renouvellement des terminaux. Par exemple, celui des télévisions par l’obsolescence culturelle comme nous pourrions l’avoir si jamais la 4K, permise par une infrastructure renforcée et une plus grande consommation de données à un instant t, était poussée fortement par les différents services de contenus. Un épisode similaire s’est déjà produit lors de la bascule vers la TNT HD.
Au plaisir de pouvoir en discuter à nouveau ensemble.
Thomas
Bonjour Thomas, merci pour ton message avec beaucoup de points intéressants à creuser. En effet il y a du boulot 🙂
Bonjour. Laisser croire qu’il n’y a pas de lien entre le volume de données échangées et l’infrastructure réseau et terminaux d’usages, elle est plutôt là, l’arnaque intellectuelle que vous déployez dans vos articles. C’est exactement comme pour le transport. La multiplication des trajets libres et individuels versus l’organisation de transport en commun avec des facteurs limitant. La conclusion est la même que pour les données : il faut réduire nos mobilités. Le rationnement obligé ensuite à l’arbitrage : favoriser des processus low tech ou prioriser des flux (le télétravail plutôt que Netflix? Netflix plutôt que des vidéos de chat ou du porno ?). Là vous avez beau vous en defendre, vous êtes vraiment dans une forme de déni des impacts et de ce qui les cause. Bonne journée
Bonjour, j’ai hésité à répondre à votre message, qui mélange tout et tombe précisément dans les problèmes que je soulève : analogie douteuse avec les réseaux de transport physique, pensée dogmatique, etc.
“Laisser croire qu’il n’y a pas de lien” je ne dis pas qu’il n’y a strictement aucun lien, je dis que la corrélation est extrêmement faible, et que laisser entendre — comme beaucoup le font — que la proportionnalité est totale est une erreur. Si on veut chercher des vraies corrélations sans parti pris, elles sont ailleurs.
“le télétravail plutôt que Netflix? Netflix plutôt que des vidéos de chat ou du porno ?” là on entre tout simplement dans le refus de la neutralité du net sur jugements de valeur des usages. Qui êtes vous pour établir des priorités qui ne correspondraient qu’à votre ressenti sur la légitimité ? On mettrait là le doigt dans un engrenage évidemment dangereux.
Bonjour, si l’impact du numérique provient principalement de nos terminaux, il semble que l’objectif principal pour réduire notre impact serait de les utiliser jusqu’à leur fin de vie, que l’on prolongerait autant que possible via des réparations.
Est ce que cet objectif peut être atteint si l’on laisse les opérateurs, équipementiers et fournisseurs de services pousser au renouvellement d’équipements, notamment pour avoir accès à de plus hauts débits ? (Ou a une quelconque nouvelle fonctionnalité)
La question est de savoir comment réduire l’impact du numérique, vous semblez vouloir décrédibiliser l’approche discutée en ce moment, mais quelle alternative proposez vous ?
Bonjour,
Vous avez raison de demander, ma réponse est sans ambiguïté : oui il faut prolonger la durée de vie des terminaux, je ne remets aucunement cela en question.
C’est l’approche par la réduction arbitraire des volumes de données qui me semble une fausse voie. Je ne vois pas en quoi regarder moins de vidéo sur un téléphone me permet de prolonger son usage. L’équation “je regarde plus donc je vais changer plus souvent” ne repose sur aucun élément concret, à part une vague croyance décroissante.
Donc concentrons-nous sur l’augmentation des durées de vie, abandonnons cette croisade inutile contre l’usage en vidéo voire en mail comme cela commence à apparaître. Et trouvons plutôt d’autres vecteurs d’économies, réels ceux-là.
Vous ne répondez toujours pas à la question, comment augmente-t-on la durée de vie des terminaux sachant que les entreprises du domaine font tout pour que les consommateurs en change aussi souvent que possible ?
Seule une loi peu contraindre les fabricants et distributeurs de terminaux à cesser les pratiques actuelles qui poussent au renouvellement. Pour les contraindre il faut créer une situation économique où ça sera plus avantageux pour ces acteurs de promouvoir la reprise, la réparation et le réemploi que l’achat d’un terminal neuf.
C’est un sujet complexe. Je ne pense pas avoir de solution à proposer qui soit efficace et robuste.
Taxer fortement (à 100% ou 200%) la mise en circulation d’un terminal neuf ? Ça va finir par développer le business de platformes e-commerce basées à l’étranger comme aliexpress.
Créer une taxe indéxée sur la réparabilité du terminal. Moins c’est réparable facilement plus c’est taxé. Même problème que le point précédent.
https://fr.ifixit.com/smartphone-repairability
Imposer des garanties obligatoires minimales aux constructeurs de hardware ET aux fournisseurs de l’OS (looking at you Google/Android!). Par exemple 5 ans sur le hardware et 10 ans pour les mises à jour de l’OS.
Je pense qu’on ne parle pas assez de l’impact du logiciel qui rend un terminal tout à fait valable artificiellement obsolète lorsqu’il ne bénéficie plus de mises à jour par le fabricant ou son sous-traitant.
Si l’on prend le raisonnement en partant de l’objectif, a savoir, nous souhaitons reduire nos emissions, pour cela il faut reduire l’energie maximum consommee par l’infrastructure, ce qui revient a reduire l’infrastructure (pour les emissions de productions et de maintenance), et si on reduit l’infrastructure, alors … tout le monde va-t-il regarder autant de videos en 4K streaming? La reponse est evidemment non. Donc, indeniablement il y a une correlation entre video, donnees, et emissions. Je ne comprends pas l’energie deployee (sans jeu de mot) pour argumenter le contraire, cela ne participe que de la perte du temps autour de ce que nous allons faire pour reduire les emissions du reseau.
Bonjour,
En somme, « c’est comme ça parce que certains pensent que c’est le mieux et puis c’est tout, les arguments de fond n’ont aucune importance ? »
Désolé, pas du tout d’accord avec ce genre d’approche dogmatique et non étayée qui est exactement celle qui nous envoie vers de fausses solutions.
Bonjour,
merci pour ces réflexions et ces réponses constructives et toujours courtoises.
Est-il possible de vous contacter en privé pour partager des informations supplémentaires?
Merci.
Belle journée
Bon article, et bonne discussion dans les commentaires. Comme dit Olivier dans son commentaire “le dimensionnement des réseaux est fait pour pouvoir écouler le trafic “a l heure chargée” donc au moment le plus chargé de la journée. Peu importe si le reste du temps, le réseau est chargé a 5%.”
C’est à mon avis de ce côté qu’on va voir des évolutions, notamment côté constructeur. On a vu cette évolution côté calcul et serveurs, avec l’apparition de la diminution de fréquence (et donc de la consommation éléctrique) sur les processeurs non actifs, et ce depuis le milieux des années 90. Au début c’était surtout sur les machines personnelles, mais ça a migré doucement vers les centre serveurs avec la montée des prix du kWh. On voit des grosses optimisations sur les optiques / laser, et les commutateurs, pour faire baisser les budgets de consommation, car c’est devenu tellement dissuasif. C’est pas pour dire que c’est la marché qui va tout résoudre, mais c’est une forte tendance: quand l’électricité est chère, on optimise. Ça sera en tout cas bien plus efficace que des chiffres sortis au pifomètre, ce qui, comme Pierre le dit, risque de faire rater une cible (au mieux) ou au pire, rendre sourd les acteurs qui les mieux placés pour passer le message auprès des décideurs.
La modélisation est par nature une simplification. En l’espèce, la simplification proposée (l’équivalent CO2 est-il corrélé aux volume des données transmises?) est-elle pertinente?
En comptabilité analytique, on a coutume de dire que, à court terme, tous les coûts sont fixes, et qu’à long terme, tous les coûts sont variables.
Appliquée à la question du jour, cette maxime pourrait se traduire par : Pierre adopte une vue de court terme, et il a certainement raison; Jean-Marc Jancovici adopte une vue de long terme, et il n’a peut-être pas tort.
Merci pour ce commentaire. Jolie pirouette comptable 🙂
Je n’ai jamais dit que tous les coûts sont fixes. Je dis que l’impact de l’infrastructure des réseaux par rapport au volume est bien mieux modélisé avec des coûts fixes très majoritaires qu’avec des coûts totalement variables. Si vous voulez vraiment trouver des coûts variables quasi linéaires, il y en a et j’en ai cité (couverture géographique).
Ici il s’agit de trouver des éléments “actionnables”. Une modélisation trop éloignée de la réalité nous en empêche.
Et je n’ai même pas commencé à parler des externalités positives.