En mars 2022, j’ai voulu tenter une petite expérimentation : est-il possible en ville d’assurer 100 % de sa consommation énergétique numérique mobile (ordinateur portable + ordiphone) par énergie solaire renouvelable ?
L’idée de fond n’était pas de décarboner ni de faire une économie sur la facture d’électricité : malgré le pilonnage médiatique anti-numérique sur le poids colossal supposé de celui-ci, les quantités en jeu sont insignifiantes : tout au plus 50 à 100 Wh par jour, soit moins de 0,02 € sur la facture.
Le but était surtout de voir si on peut s’assurer une autonomie minimale en cas de coupure prolongée du réseau électrique.
L’habitat en ville, en immeuble, introduit quelques contraintes :
impossible d’utiliser un groupe électrogène classique : solution de toute façon exclue car polluante, bruyante, et non autonome puisqu’il faut de l’essence ;
difficile de déployer des panneaux solaires fixes sans accès à la toiture.
J’ai donc opté pour cette batterie de camping, d’une capacité de 500 Wh avec sortie 220 V et USB :
… et ce panneau solaire d’un peu moins de 1 m² , pour une puissance crête théorique de 120 W :
Le coût des 2 équipements est de presque 700 €, ce qui exclut toute rentabilité de l’investissement en terme de production d’électricité.
Avec une telle capacité de batterie, on peut en gros espérer alimenter un ordinateur portable pendant 20 à 30 heures, ou faire 30 recharges complètes de téléphone mobile.
La batterie pourrait se recharger théoriquement en 4-5 heures si le panneau produisait au maximum (120 W), mais la batterie possède un limiteur qui n’accepte pas plus de 65 W en charge. Cependant, il est possible de dépasser cette valeur par grand soleil en branchant des charges directement en sortie : elles seront alors alimentées directement par l’électricité reçue du panneau. L’électronique se charge alors de gérer les excédents en chargeant la batterie, ou les déficits en la déchargeant.
Par un beau jour et par éclairage direct, il est possible de récupérer 65 W, donc recharger la batterie théoriquement en 8-9 heures. En pratique, même au solstice d’été, en ville avec les ombres portées par les immeubles, il est difficile de dépasser 3-4 heures de charge maximale.
On peut bien sûr optimiser la production en déplaçant le panneau manuellement pour suivre au mieux le soleil, mais c’est peu pratique et très chronophage.
En novembre, ça se corse : le soleil est plus bas — ce qui, en ville, augmente très sensiblement les périodes d’ombre portée –, le temps est plus couvert, il est difficile de récupérer plus de 5-10 W. Ici, par temps couvert, on atteint péniblement 3 W, soit environ 2 heures pour gagner 1 % de charge batterie seulement. Depuis que j’ai pris cette photo, la puissance de charge est tombée à 1 W en plein midi…
La batterie était tombée à 10 % en début de mois, mais j’ai pu récupérer 30 % de charge en 2 journées relativement ensoleillées et avec un suivi serré du soleil.
En conclusion, si par une belle journée d’été ou de printemps il est assez facile de produire 100 à 200 Wh avec un tel matériel, on doit plutôt tabler sur 10 à 20 Wh par jour en moyenne en automne en région parisienne sur une journée couverte, et elles sont nombreuses.
Je considère donc que fonctionner en autonomie complète sur mon matériel mobile, malgré une utilisation très sobre (30 mn d’ordinateur portable par jour), est un quasi-échec.
Tout a commencé en septembre 2017 par un banal achat d’imprimante laser couleur. Il nous fallait une imprimante utilisable facilement ailleurs que sous Windows, idéalement en réseau pour éviter des allées et venues entre ordinateurs, et recto-verso. De préférence, connaissant les formats Postscript ou PDF pour éviter d’avoir à réaliser des conversions. La plupart de ces fonctions sont réalisables par logiciel pour compenser leur absence, mais c’est toujours plus compliqué à mettre en œuvre.
Par ailleurs, nous souhaitions une imprimante laser au lieu d’une jet d’encre. Ces dernières ne sont pas particulièrement moins chères, et sont moins fiables (l’encre sèche avec le temps), alors que nous imprimons assez peu. Je pensais aussi échapper aux restrictions d’usage qui touchent les cartouches jet d’encre et permettent de les vendre à prix fort, pensant naïvement que les cartouches de toner en étaient exemptes.
Bref, nous trouvons rapidement un modèle qui coche toutes les cases à un prix intéressant, un peu moins de 110 €. Appelons-la modèle 310.
C’est une imprimante très ressemblante mais d’un modèle différent que nous recevons. Appelons-la 317. La 317 est identique à la 310, à un petit détail près : elle a l’option wifi, qui ne nous intéresse pas du tout. Mais ça ne semble pas gênant de l’avoir.
L’imprimante est munie de 4 cartouches d’encre d’origine : noir, magenta, cyan, jaune. Elles sont censées permettre l’impression d’environ 1500 pages, contrairement aux cartouches vendues ensuite, prévues pour 3000 pages. Leur format étant identique, les cartouches d’origine ne sont donc pas remplies complètement. Le coût par page de l’imprimante neuve avec cartouches est ainsi relativement comparable au coût par page des 4 cartouches de remplacement. Le constructeur souhaite probablement s’assurer qu’on ne commandera pas une imprimante neuve complète lorsque vient le moment de changer les cartouches d’origine.
Passent alors quelques mois d’utilisation sans histoire, jusqu’à la fin 2018, principalement en noir et blanc. Nous approchons de l’épuisement de la cartouche magenta, gentiment signalé à l’avance par l’imprimante.
Nous commandons donc des cartouches de remplacement du constructeur, profitant d’une offre groupée à prix « d’ami » incluant les 4 couleurs. Nous les stockons en attente d’utilisation, le temps que la cartouche magenta d’origine arrive effectivement à bout, ce qui prendra 4 ou 5 mois.
« Et là, c’est le drame. »
L’imprimante ne reconnaît pas la cartouche magenta de remplacement, produisant une erreur cryptique et refusant catégoriquement d’imprimer, même en noir et blanc.
Tout naturellement nous appelons donc l’assistance de la marque en France, qui investigue pour m’expliquer, en substance, que tout cela est de ma faute : mon modèle est le 317, or j’ai commandé des cartouches pour le modèle 310. Il est donc tout à fait « normal » que cela ne fonctionne pas. J’aurais dû faire attention. Je peux m’adresser au vendeur des cartouches pour demander un échange.
De son côté, le vendeur des cartouches — nous avions, autre erreur, privilégié un commerçant du sud de la France pour éviter d’engraisser une grande plateforme de vente en ligne — explique qu’au titre de ses conditions de vente il ne peut réaliser d’échange, même de cartouches neuves non déballées, car notre commande date de plus de 3 mois (puisque nous nous y étions pris à l’avance).
Nous voilà donc avec une imprimante totalement inutilisable à moins de payer à nouveau au moins une cartouche magenta (environ 150-170 €), et 450 € de cartouches inutilisables, potentiellement revendables sur e-bay avec les complications associées, une perte de valeur pour nous, et un risque pour l’acheteur.
Pour la petite histoire, la présence d’une cartouche vide empêche également toute mise à jour logicielle de l’imprimante.
En faisant quelques recherches en ligne, je découvre que des commerçants chinois revendent des circuits (chips) de remplacement pour les cartouches, classés par couleur d’encre, modèle d’imprimante, nombre de pages le cas échéant, et zone géographique.
Ici un petit aparté sur la notion de zone géographique pour imprimante. D’après l’assistance du fabricant, il s’agit de fournir du toner optimisé pour la région où il est utilisé, afin d’être adapté aux conditions climatiques locales (hygrométrie, température).
On pourra juger de cette promesse en constatant sur cette image que la Russie et toute l’Afrique sont dans la même zone, ainsi que l’Espagne et le Groenland, ou encore le sud des États-Unis et le grand nord du Canada. En revanche, cette politique commerciale permet d’appliquer des tarifs et circuits de distribution différenciés par continent.
J’ai donc commandé sur Aliexpress, en Chine, les circuits de remplacement “zone Europe”, pour chacune des 4 couleurs, pour le modèle d’imprimante 317.
Ces circuits sont normalement prévus pour recharger des cartouches avec du toner “compatible” (bien moins cher). Je dois être l’un des rares à m’en être servi sur des cartouches constructeur neuves. La somme est modique (15 € par circuit), le risque financier est donc minime même si l’opération échoue, et la manipulation est simple : 2 vis à ôter, le chip à remplacer, on revisse et c’est reparti.
Cet hiver j’avais remplacé le chip de la cartouche magenta, ce qui m’a permis d’utiliser à nouveau l’imprimante après presque 1 an de panne sans trop savoir comment s’en sortir. Je viens de remplacer le chip et la cartouche noire. On note sur l’emballage (photo ci-dessous) la mention du nombre de pages (3K), de la couleur (BK = black, noir), et de la zone géographique (EUR).
Addendum technique : les circuits ci-dessus sont interfacés avec l’imprimante par le protocole I2C, très courant dans le petit matériel électronique. Il est possible, dans une certaine mesure, de les reprogrammer par ce protocole pour changer les paramètres (autre couleur, autre imprimante, autre zone géographique, remise à zéro du compteur), et on trouve sur le web des instructions d’électroniciens à cet effet. C’est de ce type d’instructions que se servent les vendeurs de chips “pirates”. Dans certains cas, il est impossible de reprogrammer un circuit qui est arrivé au bout du nombre de pages. J’ai essayé ces procédés avec un Raspberry — car celui-ci comporte une interface I2C — sur les circuits “constructeur”, mais sans succès. J’aurai peut-être plus de résultats avec les circuits commandés en Chine.
Les imprimantes considérées ici sont les Lexmark CS310dn (sans wifi) et CS317dn (avec wifi), mais il existe énormément d’autres marques connues qui pratiquent le même genre de procédé : HP, Epson, Ricoh, Samsung, etc. L’objet de ce texte était surtout de montrer les complications que cela implique pour des usages légitimes, ces restrictions n’étant bien entendu jamais explicitées lors de l’acquisition.
Suite à ce billet précédent, La sobriété numérique, oui mais pour quoi faire ?, il est apparu nécessaire de revenir sur cette nouvelle tendance qui consiste à s’attacher au volume de données pour évaluer les impacts du numérique, et démontrer à nouveau en quoi cela n’a aucun sens.
En effet, le législateur se prépare à demander à nos fournisseurs de téléphonie et d’accès Internet de faire figurer sur nos factures une évaluation de l’équivalent CO₂, abrégé eqCO₂ (car des conversions existent pour d’autres éléments provoquant également un effet de serre) dérivant « directement » de notre consommation de données.
Profitant du contexte — étude en ce moment au parlement de la loi contre le gaspillage –, je vais tenter de montrer ici pourquoi cela ne protégera aucunement l’environnement et risque de nous orienter vers des politiques publiques désastreuses.
L’un des promoteurs de cette nouvelle croisade est le Shift Project. Le Shift Project est un think-tank associatif bien connu dans les milieux environnementaux, dont l’objectif est de proposer des mesures de politique publique pour respecter les accords de Paris et mener au mieux la lutte contre le réchauffement climatique.
Le Shift a publié en 2019 un rapport sobrement titré Climat : l’insoutenable usage de la vidéo en ligne, ciblant donc très explicitement la vidéo comme mauvais élève à abattre, en raison de son fort poids dans le trafic actuel des réseaux. Devant les levées de boucliers et des erreurs manifestes de méthodologie (facteur d’exagération de 20 à 50 de l’impact eqCO₂ sur certains chiffres publiés, ceux qui ont été le plus repris dans les médias), le Shift Project a fait discrètement machine arrière dans son rapport 2020 au titre plus sobre, Déployer la sobriété numérique, dans une note de bas de page :
Cependant, le mouvement de fond consistant à vouloir réduire la consommation de données est bien lancé en France, et il subsiste, alimenté la plupart du temps par une unique source, les études du Shift Project et de Carbone 4, le cabinet de consultants associé. On l’a notamment vu dans le débat contre la téléphonie 5G, où le chiffre –faux — le plus cité dans les médias français sur l’augmentation de la consommation électrique provenait d’une (trop) rapide multiplication issue d’une tribune du Shift publiée par le Monde, extrapolant abusivement des consommations d’équipements chinois spécifiques à l’ensemble des antennes du parc français.
Or, sur le fond, la critique de la consommation de données est fondée sur un choix non explicité et arbitraire, donc extrêmement contestable : la répartition de l’impact CO₂ du numérique par ses différents acteurs (opérateurs, équipementiers, services, etc) devrait se faire au prorata du volume de données consommé. Nous allons voir en quoi ce choix est infondé.
Comment évalue-t-on le poids du numérique ?
Les évaluations dites Top-Down (parce qu’elles ne s’intéressent qu’aux grandes masses sans entrer dans les détails de fonctionnement) incluent des Analyses du cycle de vie, donnant lieu à des rapports de « responsabilité sociale d’entreprise » (RSE). Ces rapports consistent à auditer l’ensemble des processus d’une entreprise et à en calculer l’impact environnemental. L’équivalent CO₂ n’est qu’une partie de ces évaluations. La consommation électrique est convertie en eqCO₂ au prorata du kWh, sur un facteur dépendant des modes de production. En France, le chiffre de 60-65 grammes eqCO₂/kWh est couramment utilisé, il correspond à l’évaluation par RTE du mix moyen de production français, peu carboné.
Ce poids inclut donc l’ensemble de l’activité de l’entreprise : non seulement la partie directement productive — dans le cas d’un opérateur, ses équipements réseau, serveurs, etc — mais également les consommations des camionnettes des équipes d’installation et maintenance, les chauffages et climatisation des bureaux, la consommation d’eau courante, l’entretien des parkings, etc.
On obtient ainsi un certain nombre de chiffres, dont l’équivalent CO₂ total émis annuellement par l’entreprise, qui sont publiés dans les rapports RSE.
Comment évalue-t-on ensuite le poids en équivalent CO₂ du volume de données ?
C’est ici qu’on commence à entrer dans les raisonnements à l’emporte-pièce, ceux qui semblent sujets à caution.
On évalue le trafic total de l’opérateur tel que délivré aux utilisateurs, et on divise le eqCO₂ émis par l’opérateur par le volume de données transmis.
On obtient ainsi un chiffre artificiel en grammes de eqCO₂/Go transmis, ou parfois en kWh/Go, facilement communicable et faussement parlant.
Au passage, on suppose que le service rendu par un opérateur est intégralement celui du volume de données transmis et qu’il n’existe rien d’autre de pertinent et mesurable. Or il existe d’autres métriques non moins utiles. Pour un opérateur de télécommunications : couverture géographique, débit, taux de disponibilité, etc. Pour un service de vidéo en ligne : œuvres stockées, ouverture à des tiers pour auto-publication, etc. Pour un service de simple stockage en ligne, le coût de gestion de la quantité de données ne sera pas le même que pour un service vidéo qui a besoin de procéder à des traitements lourds d’encodage. Pour un virement bancaire ou un message Twitter, le coût individuel de traitement d’une transaction va être très élevé par rapport au volume transféré. Et ainsi de suite.
Quand on a un marteau…
Pire : une fois que cette métrique artificielle du gramme eqCO₂/Go sera popularisée et présente éventuellement sur les factures des fournisseurs d’accès comme le propose aujourd’hui le législateur, la réaction attendue de l’utilisateur va être de réduire sa consommation de données pour décarboner.
Or il est facile de montrer que cet effort est vain et que cette initiative risque de détourner notre attention d’efforts plus efficaces.
Si demain nous divisons tous par 2 notre consommation de données au vu de l’évaluation qui précède, satisfaits de faire ainsi « notre part » dans la réduction d’impact, nos opérateurs vont-ils soudain constater avec plaisir que leurs factures d’électricité, d’équipements, de chauffage, de carburant sont également divisées par 2 ?
La réponse est évidemment « non ».
Pourraient-ils démonter quelques équipements afin de réduire leur infrastructure en rapport avec la baisse de volume ? Marginalement peut-être, mais pas au point de la réduire par un facteur proportionnel.
En fait l’impact sur le CO₂ émis serait infime, probablement même pas mesurable.
Il est utile de rappeler en passant que, si l’on cherche des corrélations, l’impact en équipement et consommation électrique d’une infrastructure d’opérateur, mobile comme fixe, est principalement lié à sa couverture géographique. Si nous voulons protéger l’environnement par des mesures de restriction, il serait donc directement utile de réduire cette couverture géographique. Affirmons sans grand risque d’être démenti que ce ne serait pas une voie souhaitable : en creux, on peut voir là une confirmation que les réseaux numériques ont une utilité qui va bien au delà de la comptabilité des volumes échangés.
Pitié pour les données…
Ce choix méthodologique de clé de répartition au volume, jamais questionné, n’a donc aucun sens physique, comme expliqué ici et dans le billet cité en introduction.
Pourquoi avoir choisi le volume de données ? La métrique a l’avantage d’être simple et de sembler logique. C’est le principe du compteur d’eau ou d’électricité.
Or si le numérique a vu ses usages exploser dans nos sociétés, c’est parce qu’il ne fonctionne pas aussi simplement que cela, et parce que la logique du compteur, privilégiée par les administrations des télécoms et leurs financiers, a été abandonnée : elle ne reflétait pas du tout les coûts réels, était elle-même coûteuse et improductive, et freinait notablement l’émergence des réseaux numériques à grande échelle et à haut débit.
La comptabilisation par secteur plutôt qu’au volume
La métrique du volume de données a aussi l’avantage perçu en France de cibler — en apparence — surtout des acteurs étrangers de la vidéo en ligne : Youtube, Netflix, Disney, etc. C’est oublier que la vidéo sur hébergement personnel est désormais possible, grâce à des outils comme Peertube, développé d’ailleurs par des français. Plomber la consommation de données ne peut que décourager les utilisateurs de s’approprier ces technologies, donc empêcher toute déconcentration du secteur, pourtant rêvée par nombre de nos politiques.
Si on se place du côté des gros fournisseurs de services, l’absurdité d’imputer le CO₂ par rapport aux volumes apparaît encore plus évidente. La vidéo en ligne produirait environ 60 % du trafic Internet aujourd’hui, selon une étude citée par le Shift. Est-ce que, pour autant, les fournisseurs de service concernés produisent 60 % du CO₂ de la totalité du secteur, comme le laisse entendre l’imputation au volume ? Très probablement pas. Il serait utile de le vérifier. Personne ne semble l’avoir fait.
Nous avons besoin de méthodologies d’imputation plus rigoureuses
Si nous voulons utilement lutter contre le réchauffement climatique, il est urgent de développer des méthodologies plus rigoureuses permettant un ciblage utile des efforts à réaliser, en entreprise comme par les citoyens, mais aussi en matière de politiques publiques. Sans cela, nous courons le risque de perdre nos efforts, notre temps et pire, de rater une cible qui est déjà difficile à atteindre.
Le volume cache la forêt
Réintroduire de près — imposition au vu d’un montant équivalent CO₂ artificiel ? — ou de loin une restriction des volumes échangés serait un considérable retour en arrière, introduisant une pénurie qui ne protégerait aucunement l’environnement, au contraire : elle nous restreindrait dans les usages vertueux du numérique — par exemple, la vidéoconférence ou le télétravail qui évitent des déplacements fortement émetteurs de CO₂ et qui congestionnent nos réseaux de transport. L’Ademe a ainsi conclu dans une étude récente que les externalités positives du télétravail prédominaient.
Le numérique est avant tout un fantastique outil de copie et diffusion en masse de l’information, bénéficiant d’effets d’échelle considérables. Depuis l’époque du Minitel, les débits de données couramment disponibles à coût comparable ont été multipliés par un million (de 1200 bps à 1 Gbps). Il en est de même avec les capacités de stockage, la puissance de nos ordinateurs, etc.
On me rétorquera — c’est un slogan en vogue — qu’il n’existe rien d’infini dans un monde fini. C’est une évidence. Mais notre bon sens habituel est dépassé pour appréhender des facteurs de gain d’efficacité d’un million en 40 ans, et les analogies avec le monde physique (réseau routier vs réseaux numériques) sont inopérantes et trompeuses.
On me parlera aussi de l’effet rebond — et de même, après avoir rappelé que l’effet rebond n’est pas une théorie physique s’appliquant mécaniquement avec certitude, qu’il ne peut donc être prouvé qu’a posteriori et n’a rien d’une fatalité, je répondrai qu’il faudrait un sacré effet rebond dans les usages pour enterrer des gains d’efficacité d’un million. Je ne réserve pas 1 million de fois plus de billets de train qu’autrefois, ni ne commande 1 million de fois par correspondance, ni ne regarde 1 million de fois plus d’heures de vidéo — je suis contraint là par le monde physique, celui qui n’a que 24 heures par jour.