Category Archives: neutralité

La sobriété numérique, oui mais pour quoi faire ?

Avertissement ajouté le 17/7/2020 : l’objet de ce billet n’est pas de nier l’impact environnemental du numérique, mais d’étudier la pertinence des injonctions à la limitation de notre volume de données.

La facturation au volume, ou la limitation des abonnements Internet, vieux serpent de mer des réseaux numériques depuis des décennies et rêve de certains opérateurs, fait aujourd’hui sa réapparition sous la motivation de la défense de l’environnement, notamment via un rapport récent du sénat, suivi d’un rapport similaire du Conseil national du numérique. Ces rapports s’appuient notamment sur ceux du Shift Project de 2018 et 2019 sur la sobriété numérique ; ces derniers ont vu certains de leurs éléments critiqués en raisons d’erreurs manifestes (surévaluations des empreintes).

Suite à de nombreuses discussions notamment sur les réseaux sociaux, lectures de rapports et études, etc, depuis 2 ans, je voulais poser ici quelques arguments mis en forme pour éviter d’avoir à les réécrire ici et là.

L’affirmation principale qui sous-tend l’idée de limiter notre consommation de données est que l’explosion des volumes provoquerait une explosion de la consommation électrique. Cet argument est également cité pour mettre en doute la pertinence du déploiement de la 5e génération (5G) de téléphonie mobile.

Nous allons voir qu’en fait, l’essentiel de la consommation électrique des réseaux est constitué par le fonctionnement de l’infrastructure, indépendamment de la quantité de données.

Si vous n’avez pas envie de lire les détails de ce billet, vous pouvez vous contenter de “Et le réseau mobile” et “Faut-il vraiment réduire notre consommation de données ?”, en complétant si nécessaire par “La puissance et l’énergie” pour les notions d’électricité.

La puissance et l’énergie

Pour commencer, quelques rappels de notions électriques fondamentales pour mieux comprendre les chiffres que l’on voit circuler ici et là, et leurs ordres de grandeur.

Le Watt est l’unité de puissance électrique. C’est une valeur “instantanée”. Pour éclairer correctement vos toilettes, vous aurez besoin de moins de puissance que pour illuminer un monument comme la tour Eiffel. Un four électrique, un grille pain ou un radiateur engloutissent aux alentours de 1500 à 2500 watts. Un téléphone mobile, moins de 5 watts. Comme la quasi totalité de la consommation électrique passe en effet Joule, tout objet usuel qui consomme de manière significative émet de la chaleur. C’est un moyen très simple de s’assurer qu’un objet ne consomme pas beaucoup d’électricité : il ne chauffe pas de manière sensible (c’est un peu différent pour des moteurs électriques, mais cela reste vrai pour des ampoules).

Le Watt.heure, Wh (ou son multiple le kilowatt.heure, kWh) est une unité d’énergie. Si vous vous éclairez pendant 2 heures au lieu d’une heure, la consommation d’énergie sera doublée. Et en mettant deux ampoules, vous consommerez en une heure ce qui aurait pris deux heures avec une simple ampoule.

Le fournisseur d’électricité compte donc les kWh pour la facturation. Il calibre également le compteur pour une limite (en Watts) à la puissance appelable à un moment donné. C’est une limitation de débit. Cela peut vous empêcher de faire tourner à la fois le four électrique et le chauffe-eau, gros consommateurs d’électricité, mais ça ne vous interdit pas de les utiliser l’un après l’autre.

Une batterie, que ce soit de téléphone ou de voiture (électrique ou non) stocke de l’énergie et voit donc sa capacité exprimée en watts.heure. On peut aussi l’indiquer en ampères.heure. Dans ce cas, il faut multiplier cette dernière valeur par la tension nominale (volts) pour obtenir la capacité équivalente en watts.heure.

On voit passer parfois, au fil des articles, des “kilowatts par an” ou “mégawatts par heure”. Ces unités n’ont pas de sens physique directement utile. Elles indiquent en général une erreur.

Comment vérifier des consommations d’appareils électriques

Il est facile de vérifier soi-même la consommation des appareils électriques usuels avec un “consomètre”. Ainsi, vous n’aurez pas à prendre pour argent comptant ce qu’on affirme ici ou là. On en trouve pour moins de 15 €. Les modèles auto-alimentés (sans pile) sont en général préférables, évitent la corvée de piles et sont donc plus respectueux de l’environnement, mais peuvent perdre la mémoire en cas de coupure. Ces appareils permettent aussi bien de mesurer la consommation instantanée (la puissance, en W) que l’énergie utilisée sur une certaine durée (en kWh donc), pour les appareils qui ont une consommation fluctuante (par exemple, un frigo ne se déclenche que pour refaire un peu de froid quand c’est nécessaire).

Commençons par un objet courant, le point d’accès wifi.

TP-Link Routeur WiFi N450 Vitesse sans fil jusqu’à 300 Mbps,Dual-band, 5 ports (Ethernet 4 ports ), 2 antennes externes, Support contrôle parental, TL-WR940N

Un point d’accès wifi de ce type, allumé, consomme environ 4 watts, tout le temps, indépendamment de son utilisation. Côté antenne wifi, la législation en France interdit une émission d’une puissance supérieure à 100 mW. Autrement dit, la consommation due à la transmission par l’antenne est au grossièrement (pour simplifier, car l’électronique interne sera également un peu plus sollicitée) 2,5 % de la consommation totale de la borne. L’interface ethernet (filaire) consomme un peu d’électricité elle aussi, mais celle-ci dépend de la longueur du câble plus que du volume de données transmis. Certaines bornes disposent ainsi d’un mode “vert” pour réduire la consommation électrique dans un environnement personnel, où les câbles mesurent quelques dizaines de mètres au maximum, plutôt que 100 mètres.

La différence de consommation entre une borne qui émet au maximum de sa capacité et une borne allumée sans aucun trafic sera donc au maximum de 2,5 %. En tout cas, il faut être conscient que diviser par 2 sa propre consommation de données ne divisera pas par 2 la consommation électrique associée, ni chez soi, ni ailleurs. Il est très facile avec un consomètre de le vérifier par soi-même pour la partie à domicile.

La box Internet

Les mêmes remarques s’appliquent à votre box d’accès Internet. Celle-ci va avoir, comme un point d’accès wifi, une ou plusieurs prises ethernet, et un accès au réseau de l’opérateur : aujourd’hui ADSL, VDSL ou fibre.

L’ARCEP a publié en 2019 un rapport sur l’impact carbone des accès à Internet. D’après un des acteur interrogés, “la fibre consomme en moyenne un peu plus de 0,5 Watt par ligne, soit trois fois moins que l’ADSL (1,8W) et quatre fois moins que le RTC [réseau téléphonique classique] (2,1W) sur le réseau d’accès”. Ces estimation de consommation ne varient pas du tout en fonction du volume transmis. En effet l’ADSL comme la fibre ont besoin d’émettre en permanence, que beaucoup ou peu de données soient transmises.

On voit aussi les progrès sensibles accomplis au fil des générations technologiques, puisque la consommation fixe décroît alors que le débit disponible augmente.

Par ailleurs, comme avec la borne wifi, la partie concernant la transmission longue distance présente une consommation marginale par rapport à celle de la box qui représente aux alentours de 10 à 30 watts suivant les générations. Les opérateurs travaillent d’ailleurs à la réduction de cette consommation, car elle devient un argument commercial.

Le téléphone mobile

Bon, la box Internet ou le point wifi ne consomment donc pas tant que ça. Qu’en est-il du téléphone mobile, présenté comme extrêmement gourmand ?

L’avantage du téléphone mobile est qu’il est alimenté par une batterie. Il est donc très facile d’estimer sa consommation maximale en fonctionnement : c’est celle d’une charge batterie complète, moins les pertes de celle-ci (faibles).

Une batterie de téléphone mobile d’aujourd’hui possède une capacité de 10 à 15 Wh. Elle peut donc fournir 10 à 15 W pendant une heure, ou la moitié pendant 2 h, etc.

L’éclairage d’écran d’un téléphone consomme à lui seul aux alentours de 2 W (facile à vérifier avec un consomètre assez sensible sur lequel on branche le chargeur). Cela représente le coût majeur lorsque vous visionnez une vidéo. La consommation est nettement plus élevée si vous préférez le faire sur un grand écran type téléviseur, et cela s’applique également à la télévision hertzienne classique.

Par comparaison, une ampoule LED consomme environ 8 watts pour remplacer à luminosité équivalente une ampoule à incandescence de 60 watts. Autrement dit, une charge de téléphone mobile n’a l’énergie pour éclairer une ampoule “basique” que pendant 1 à 2h. Il est évidemment important d’éteindre les pièces inoccupées, mais on en parle peu. Nous avons été convaincus que le téléphone mobile consommait bien plus, ce qui est faux.

Et le réseau mobile ?

Comme votre installation personnelle, la consommation du réseau de téléphonie mobile est essentiellement un coût fixe. L’équipement actif d’une antenne allumée va consommer quelques kilowatts ou dizaines de kilowatts, l’émission hertzienne proprement dite se contente de quelques dizaines de Watts, soit 100 fois moins. Autrement dit, la variable principale qui sous-tend la consommation électrique d’un réseau mobile est l’étendue de la couverture géographique, directement corrélée au nombre d’antennes.

Une étude finlandaise citée par le document Arcep a tenté d’estimer, pour la téléphonie mobile, la consommation électrique du réseau par rapport au volume de données, autrement dit le nombre de kWh par gigaoctet transféré (kWh/Go).

Pour effectuer de telles estimations d’impact environnemental, les méthodes dites d'”analyse du cycle de vie” (ACV) évaluent l’ensemble des coûts imputés par une activité. Ainsi, l’évaluation de l’empreinte de la téléphonie mobile intègre la fabrication des terminaux, la consommation personnelle (recharge quotidienne du téléphone), etc. Pour évaluer l’empreinte d’un opérateur mobile, on prend en compte la consommation des antennes, mais également la climatisation et chauffage des bureaux, etc. En divisant ce chiffre de consommation électrique totale par le volume échangé total, on peut obtenir une estimation de l’empreinte électrique du volume de données échangées.

Ce chiffre est intéressant pour évaluer l’empreinte totale des opérateurs, mais trompeur : il laisse entendre que la consommation électrique d’un opérateur mobile est totalement dépendante du volume échangé, ce qui est faux. Si du jour au lendemain tous les abonnés mobiles de France divisent leur consommation de données par 2, la consommation électrique des opérateurs ne va pas se réduire du même facteur : leurs antennes resteront allumées, leurs bureaux continueront à être climatisés et éclairés, etc.

L’étude finlandaise citée ci-dessus est intéressante à cet égard : on voit que la consommation électrique des opérateurs finlandais est restée à peu près stable pendant la décennie 2010, malgré une légère croissance tendancielle.

En revanche, les volumes échangés ont considérablement augmenté sur la même période :

L’étude finlandaise utilise les deux graphes précédents pour en déduire un graphe d’efficacité énergétique en kWh/Go :

Si on ne prenait en compte que ce dernier graphe, ou même simplement une estimation ponctuelle en kWh/Go, on serait tenté de croire que doubler le volume de données va doubler la consommation énergétique associée, mais c’est totalement faux. Pour simplifier un peu, on ne ferait qu’introduire un nouveau point de données avec une efficacité énergétique multipliée par deux.

Bien sûr, les choses sont un peu plus complexes que ci-dessus. Augmenter la consommation en volume va provoquer l’installation de nouvelles antennes, de routeurs plus puissants, de liaisons fibre de plus grande capacité, peut-être de nouveaux liens terrestres pour développer le réseau. Inversement, comme on l’a vu ci-dessus, les générations technologiques permettent d’échanger des volumes de données toujours plus élevés avec une consommation électrique qui se réduit. Ces progrès, réels, ne sont que peu visibles dans les chiffres agrégés de kWh/Go, puisque ces derniers sont essentiellement constitués de coûts fixes sans rapport avec les technologies de transmission.

Le rapport ARCEP cité ci-dessus propose également une évaluation en termes de gaz à effet de serre (indicateur plus important que la consommation électrique), qui montre une baisse progressive de l’empreinte des opérateurs français.

La section à laquelle ce graphique figure est d’ailleurs titrée “Une amélioration de l’efficacité énergétique qui compense, à ce stade, l’effet de l’explosion de trafic” pour résumer la situation.

Et les centres serveurs (datacenters) ?

Si tous les éléments cités ci-dessus ont une consommation faible, rien ne prouve que la consommation des datacenters n’est pas en train d’exploser pour répondre à la demande croissante ?

Une étude de l’agence internationale de l’énergie (IEA) montre, là encore, que la consommation électrique de ces centres n’explose pas, car les coûts principaux sont également des coûts fixes, et l’amélioration des équipements et de leur taux d’utilisation permet de traiter une quantité toujours croissante de services à consommation électrique égale.

De 2010 à 2019, le volume réseau a ainsi été multiplié par 12 alors que la consommation électrique est restée remarquablement stable.

Faut-il vraiment réduire notre consommation de données ?

On voit d’abord qu’aucun des éléments de la chaîne, du serveur de données à notre installation personnelle, n’éprouve une sensibilité particulière aux volumes de données échangés. Il n’y a donc pas de raison écologique de se forcer à réduire notre consommation de celles-ci.

Il n’y a pas de raison non plus de forcer les opérateurs à le faire à notre place, en appelant à l’interdiction des forfaits illimités, ou à une obligation de facturation au volume. On notera d’ailleurs que ces envies de facturation proviennent historiquement des opérateurs eux-mêmes, et ont pu être liées à des initiatives pour remettre en cause la neutralité du réseau.

On peut légitimement arguer que l’électricité française est l’une des moins carbonées du monde (nos efforts en matière de consommation électrique ont donc beaucoup moins d’impact CO2 qu’ailleurs, à énergie économisée équivalente).

Mais puisque rien ne prouve qu’être sobre sur notre consommation de données aura le moindre impact significatif sur la consommation électrique, à quoi bon s’épuiser en efforts inutiles ?

Ce tweet résume d’ailleurs bien la question, pour montrer que le refus “par principe” de l’illimité n’a pas de sens :

En conclusion, la sobriété pour la sobriété, qu’elle soit volontaire ou forcée, n’est guère justifiable, et risque même de nous empêcher de profiter des externalités positives significatives, et reconnues, du numérique. Préférons donc la sobriété dûment justifiée.

Il est bien entendu utile d’éteindre sa box Internet, son accès wifi ou son ordinateur lorsqu’on ne s’en sert pas, comme on éteint la lumière ou le chauffage dans une pièce inoccupée. Il semble également établi, jusqu’à preuve du contraire — les données fiables sur la question sont rares en Europe –, que la fabrication des terminaux mobiles reste une activité consommatrice de ressources, il est donc utile d’utiliser les nôtres le plus longtemps possible pour mieux en amortir ce coût fixe.

Ce billet est resté succinct pour ne pas noyer le lecteur sous des tonnes de chiffres, mais n’hésitez pas à laisser un commentaire ici si vous avez des données pertinentes et sourcées qui pourront peut-être faire l’objet d’une deuxième couche 🙂

Copyright Directive Article 13 Flowchart

To get a better idea of how Article 13 of the Copyright Directive (to be voted very soon at the European Parliament) operates, and evaluate how complicated and dangerous it is, I have made the following flowchart. Feel free to share. Comments welcome.

Source text, current article 13 draft: https://juliareda.eu/wp-content/uploads/2019/02/Art_13_unofficial.pdf

See also my analysis about content filtering for article 13.

Article13 Flowchart

Other references with graphs:

https://www.nextinpact.com/news/107705-directive-droit-dauteur-notre-schema-pour-comprendre-larticle-13.htm

https://boingboing.net/2019/03/11/legislative-analysis.html


La démission française sur la liberté d’expression numérique

Un point sur la directive copyright semble utile (j’avais écrit ici une petite introduction précédemment, pour les lecteurs qui ne sont pas au courant de l’article 13 de cette directive).

La nouvelle du jour, c’est qu’après des mois de tergiversations, la position française (totalement acquise aux ayants-droit) semble avoir eu gain de cause, ce qui est inquiétant. Les garde-fous demandés par les défenseurs des libertés en ligne semblent avoir été largement ignorés.

Ainsi, ni PME ni les sites à but non lucratif (ce dernier point ne semble pas certain, mais ce n’est pas encore très clair) ne seraient exclus du champ de l’article 13, ce qui revient à mettre une barrière d’entrée infranchissable à ceux-ci en face des GAFAM puisque ces derniers disposent déjà des technologies de filtrage nécessaires pour être à l’abri de l’article. Et il risque d’en résulter une censure sans subtilité des contenus produits par les utilisateurs, voire disparition pure et simple (ou inexistence) de certains services (voir ici le tout dernier article de Julia Reda, députée européenne allemande, pour les détails).

Revenons sur les facteurs qui font que la position française en la matière est particulièrement extrémiste.

Les institutions françaises et les ayants-droit

Sans revenir en détail sur la situation française autour de l’exception culturelle, un peu de contexte est nécessaire.

Depuis des décennies, la concrétisation de l’exception culturelle est le passage de lois de protection de l’industrie du spectacle, éventuellement au détriment de l’intérêt public.

Il y a ainsi eu les lois cherchant à protéger le cinéma contre la télévision (chronologie des médias), puis le cinéma et la télévision contre la cassette VHS et le DVD, puis les chaînes privées brouillées, puis la VHS et le DVD contre les importations contrariant les exclusivités nationales, puis le CD contre la musique en ligne, puis tout cela contre le piratage. Cette liste n’est, bien sûr, pas exhaustive (des séries de lois similaires existent concernant le livre).

S’y ajoutent les diverses taxes et redevances destinées à soutenir la même industrie : redevance télévisuelle (dont une bonne partie sert à acquérir des droits de diffusion), redevance copie privée (supposée dédommager les ayants-droit pour les copies de sauvegarde des œuvres que vous avez légalement acquises, mais que vous paierez également pour stocker vos vidéos de vacances ou en achetant votre téléphone), droits divers sur votre abonnement Internet, etc.

S’y ajoutent un certain nombre d’instances et d'”autorités administratives indépendantes”, suivant le terme consacré : la Hadopi et le CSA, mais aussi le CSPLA (conseil supérieur de la propriété littéraire et artistique) ou la commission pour la rémunération de la copie privée, qui décide unilatéralement du montant de la redevance copie privée. Toutes ces entités dépendent du ministère de la culture.

Une des missions principales attribuées au ministère de la culture est de réaliser, au niveau français, la législation pour protéger les ayants-droit, et à l’échelle européenne, le lobbying pour légiférer dans le même but, en particulier la directive copyright (dite “directive droit d’auteur” en France) qui nous intéresse en ce moment.

Officiellement, la mission du ministère est de « rendre accessibles au plus grand nombre les œuvres capitales de l’humanité et d’abord de la France ». En pratique, cette mission est interprétée de manière limitative : ne comptez pas sur le ministère pour défendre les licences libres ou le domaine public, car il s’agit d’un casus belli vis-à-vis des industries littéraires et du spectacle, et celles-ci l’ont clairement exprimé à plusieurs reprises.

Enfin, ce panorama ne serait pas complet sans un mot sur la représentation française au parlement européen : elle a été à l’avenant lors du vote de juillet, dans une écrasante majorité en faveur des ayants-droit, sans nuance et tous partis confondus, à l’exception notable des Verts.

Les médias et les ayants-droit

La couverture par les médias généralistes en France de la directive copyright a été quasiment inexistante, sinon pour :

  • accorder des tribunes aux ayants droit, pour défendre l’utilité de l’article 13, en en ignorant les effets néfastes ;
  • s’indigner du lobbying — réel — de Youtube et Google contre la directive, en oubliant totalement que les ayants-droit ne sont pas en reste, loin de là, en matière de lobbying ; et qu’au delà de ces 2 lobbies bien visibles et d’un storytelling binaire mais facile, devrait être évoqué l’intérêt général, celui des citoyens.

En ce qui concerne la presse, la directive prévoit l’article 11, censé obliger les moteurs de recherche à rémunérer les journaux pour le trafic que les premiers leur apportent. Pour en arriver à cette absurdité (qui équivaut à demander une commission à un taxi pour qu’il ait le droit de déposer ses clients à tel hôtel), il faut tordre le droit d’auteur et les usages d’Internet, en piétinant le droit de citation.

Les lobbyistes des articles 11 et 13 sont donc entrés depuis l’été 2018 dans un jeu de donnant-donnant. « Je soutiens ton article 11, en échange tu soutiens mon article 13, et réciproquement ». En effet, le sort de ces deux articles est lié : l’un comme l’autre visent clairement Internet sous couvert de cibler les GAFAM ; l’un comme l’autre sont contestés depuis des mois par les associations de défense des libertés ; et le reste de la directive copyright est relativement consensuel.

Ainsi, les tenants de l’article 11 (la presse) se sont vu reprocher par ceux de l’article 13 (les ayants-droit de l’industrie du spectacle) l’échec du vote de juillet 2018, qui aurait permis une validation accélérée au parlement européen, en donnant mandat au rapporteur Axel Voss pour terminer l’écriture de la directive.

Autrement dit, le sort de la directive copyright repose essentiellement sur le consensus qui sera obtenu sur ces articles 11 et 13 ; et cela traîne, car la position française, totalement calquée sur les demandes des ayants-droit, est loin de faire l’unanimité dans l’Union Européenne.

En France, le sujet ne suscite guère d’intérêt médiatique sinon pour s’indigner épisodiquement de manière pavlovienne de l’hégémonie des GAFAM, comme dans cette récente édition de l’Instant M de France Inter qui, toute occupée à dénoncer l’activisme de Youtube, en oublie accessoirement celui des ayants-droit, mais surtout arrive à faire l’impasse sur le sujet de la liberté d’expression, ce qui est plus gênant.

Précisons que je n’ai rien contre cette émission. C’est simplement l’exemple le plus récent auquel j’ai été confronté, mais il en existe bien d’autres, dans le Monde, dans Les Échos, et ailleurs, sous forme, souvent, de tribunes d’opinion à des collectifs d’artistes, ou d’interviews d’artistes en vue. Ainsi, pour ne citer que Jean-Michel Jarre, dès les titres, la tonalité est claire :

  • Le Monde : Jean-Michel Jarre : « YouTube ne doit pas devenir un monopole »
  • France Info : Jean-Michel Jarre défend les auteurs face aux “monstres d’internet”

On cherchera en vain des articles aussi médiatisés exprimant des positions allant clairement contre les articles 11 et 13 de la directive, ceux-ci étant essentiellement du ressort de la presse spécialisée, ou relégués dans des rubriques “actualité numérique”.

Il faut quand même noter quelques exceptions. J’ai eu la chance et l’honneur d’être sollicité par France 24 pour défendre le point de vue des utilisateurs et hébergeurs Internet, ainsi que pour des articles de BFMTV et Marianne, ce dont je les remercie. J’ai également été invité par l’April à l’émission Libre à vous sur Radio Cause Commune, qui est revenue à plusieurs reprises sur la directive. Enfin, on ne peut oublier la couverture régulière de ces sujets, et de tout ce qui concerne le lobbying numérique des ayants-droit, dans Nextinpact, sous la plume de Marc Rees.

La situation associative française

Plus préoccupant, et plus surprenant, l’une des associations phares de défense des droits numériques en France, la Quadrature du Net, a fait preuve d’un mutisme quasi complet sur le sujet de la directive, hors quelques déclarations de principe contre l’article 13 jusqu’à l’été 2018, suivies de prises de positions niant le danger de la directive pour l’« Internet libre », totalement à contre-courant du sentiment général dans les associations similaires.

La Quadrature n’a pas jugé possible non plus de prendre le temps de signer la lettre ouverte d’EDRI, au contraire de 90 des associations européennes et internationales les plus en vue se préoccupant de droits numériques, dont l’EFF états-unienne.

C’est d’autant plus ennuyeux que la Quadrature du Net dispose, dans le domaine associatif numérique, d’un historique et d’une écoute médiatiques qui n’ont guère d’équivalent en France. Son absence peut en partie expliquer la couverture médiatique univoque observée sur le sujet.

On note un autre absent de marque, le Conseil National du Numérique, qui semble se cantonner désormais aux missions que lui confie le gouvernement Macron.

Les deux principales associations françaises ayant réellement fait campagne contre la directive sont l’April, association de défense du logiciel libre, et Wikimédia, la branche française de la fondation qui édite le bien connu Wikipédia, concerné directement par les articles 11 et 13. On peut citer également le CNLL et Renaissance Numérique parmi les signataires de la lettre ci-dessus.

Un article 13 extrême

Même parmi les ayants-droit, l’article 13 ne faisait pas l’unanimité. Ainsi, en décembre, des ayants-droit du cinéma et du sport se sont désolidarisés de l’article tel qu’il était rédigé, estimant qu’il allait trop loin et ne bénéficierait qu’aux grandes plateformes. C’est également la position des associations.

Un résultat à la hauteur des efforts français

Comme précisé plus haut, il semble qu’après un combat entre la position française et celle d’autres pays, dont l’Allemagne, la directive copyright soit en train de passer avec un article 13 in extenso, minimaliste vis-à-vis de la protection des droits des citoyens et des intermédiaires techniques, la position de la France ayant prévalu. Rien n’étant jamais gratuit dans ces négociations, difficile de dire contre quel abandon réciproque la défense des ayants-droit a été troquée vis-à-vis de l’Allemagne.

Une situation plombée

En France, comme on l’a vu, la situation politique est verrouillée depuis des décennies par les ayants-droit, au détriment de l’intérêt général, et sans espoir ni même volonté d’en sortir.

Par parenthèse, car le domaine de la SVOD (vidéo par abonnement en ligne) est très anecdotique au regard des impacts potentiels des articles 11 et 13, le prochain échec sera celui d’un concurrent potentiel à Netflix, coulé d’avance par une législation et un écosystème hexagonaux hostiles à toute innovation en la matière, et une absence de vision. Ainsi, après avoir plombé molotov.tv par l’accumulation de règles sur les magnétoscopes virtuels, après le quasi échec de Canal Play qui en est réduit à imposer des procédures de désabonnement compliquées pour retenir ses abonnés (on notera que Vivendi n’a pas voulu acquérir Netflix à ses débuts), on nous prépare salto.fr, sur fonds publics, qui croit pouvoir s’imposer par des exclusivités sur les séries de France Télévision (celles-ci seront retirées de Netflix), et qui, inévitablement, rejoindra quelques temps après son ouverture la longue liste de nos échecs de stratégie industrielle et politique.

Et maintenant ?

La première chose à faire, urgente et essentielle, serait de sortir du raisonnement mortifère (et réactif) « ce qui est mauvais pour les GAFAM est bon pour l’intérêt général » qui actuellement motive et oriente l’essentiel de l’action législative française en matière numérique.

D’une part, parce que ce qui semble mauvais pour les GAFAM ne l’est pas forcément réellement pour eux. Ainsi, Google/Youtube dispose déjà de la technologie nécessaire pour appliquer l’article 13, ce qui lui donne une avance considérable sur le reste de l’industrie. Ensuite, on a appris récemment que Facebook, derrière une opposition de façade à l’article 13, poussait discrètement le législateur à l’adopter, parce que Facebook possède également une avance technologique en la matière.

D’autre part, ce qui semble mauvais pour les GAFAM, a, a priori, des chances de l’être également pour des acteurs similaires, les hébergeurs et autres intermédiaires techniques, qu’ils soient à but lucratif ou non, et Wikimédia l’a bien compris. Difficile de se plaindre de la prééminence persistante des GAFAM lorsqu’on a savonné également la planche des services concurrents, à moins que le plan soit de renforcer cette prééminence pour avoir un lieu de contrôle, surveillance et taxation centralisé plus simple à gérer par les états.

Dans un autre registre, on voit déjà dans les tentatives de taxation de Google et Facebook par l’état français que le crayon du législateur peut déborder : il suffit qu’un article de loi soit mal rédigé pour qu’il ait un impact bien au delà de Google ; la loi étant supposée ne pas viser un acteur particulier, ce qui serait discriminatoire, elle doit établir des principes, mais les acteurs similaires (dans le monde publicitaire en particulier) existent et, s’ils sont probablement ravis qu’on taxe Google, ils souhaiteraient éviter qu’on les taxe pour la même activité.

Il suffit de transposer la situation fiscale à celle des articles 11 et 13 pour imaginer les dangers vis-à-vis de la liberté d’expression.

Ensuite, parce que se focaliser sur la lutte contre les GAFAM revient à négliger les citoyens. Ceux-ci auraient du mal à migrer en masse vers d’autres services, même si cela pourrait être souhaitable, à supposer que de tels services existent. Notamment, restreindre par la loi la liberté d’expression sur les GAFAM, même si elle n’y est pas parfaite, revient à restreindre la liberté d’expression tout court.

Enfin, la loi doit poser des principes généraux et fonctionner le moins possible par exceptions. Ainsi, l’article 13 prévoit une liste limitative d’exceptions, qui correspondent à des services déjà existants. Mais l’imagination des développeurs de sites et d’applications est plus fertile que celle du législateur et des lobbies du moment, et les possibilités d’Internet plus larges. Ainsi, si les forges de logiciel ou les encyclopédies en ligne n’existaient pas déjà, avec des acteurs de taille notable pour les défendre, les exceptions correspondantes auraient été tout simplement oubliées.

À côté de quels autres services et usages encore inconnus sommes-nous en train de passer en écrivant la loi contre les acteurs hégémoniques du moment et pour soutenir tel ou tel groupe d’intérêt sur des modèles d’un autre temps qui, tôt ou tard, devront être repensés en fonction des possibilités de la technologie, et non contre celle-ci ?

Et pour revenir à la liberté d’expression : elle est — en partie — incluse dans le paragraphe qui précède, dans ces futurs services, même si elle mériterait un développement. Rappelez-vous du Minitel, un modèle qui a eu son heure de gloire, mais très encadré à tous points de vue, et en particulier pour préserver le modèle de la presse papier. Pensez-vous vraiment que la liberté d’expression y était aussi étendue que sur Internet aujourd’hui ?

Et plus largement, les attaques récentes contre l’anonymat en ligne par le gouvernement, beaucoup de politiques même dans l’opposition, et certains syndicalistes et éditorialistes montrent que la position de la France sur les articles 11 et 13 est loin d’être un accident de parcours.

Article 13 of the Copyright Directive considered harmful

[this is a translation+partial update of my original post in French here]

The “directive on copyright in the Digital Single Market“,  in short “Copyright Directive”, having passed the JURI commission vote with amendments on 20 June  2018, will soon be voted in a plenary session of the European parliament, 5 July 2018.

I wrote the following text before calling some Members of the European Parliament (MEPs), thus participating in the campaign started by saveyourinternet.eu.

I would like to invite you to do the same, not before you have read some of the references quoted at the end of this page, and consulted https://juliareda.eu/2018/06/article-11-13-vote/

Two articles are especially dangerous.

  • Article 11, about referencing and quoting press articles; we will not develop this issue any further here.
  • Article 13, about so-called “upload filters” on all content sharing sites (ie all sites who have a function of sharing content, including comments/videos/photographs/audio on social networks).

The stated goal of article 13 is to protect rightholders of the entertainment industry against the hegemony of the big web sharing platforms, most notably Youtube, which alledgedly results in revenue “evasion” when rightholder’s contents are illegally uploaded and consulted on these platforms.

The proposed solution is to create a legal obligation to deploy system blacklisting protected contents, on all content sharing sites, for all types of content, even those that don’t need protection (for example, computer software source code).

We are going to examine how such systems work, why they are costly to implement, with significant collateral damage, and why the targeted platform already implement measures to satisfy the stated goal.

Content blacklist systems

They can be roughly classified in three categories :

“Exact match” detection

They are relatively cheap in terms of resources. They work on raw digital data. They don’t need to be aware of formats or media type, not even of the detailed original content to protect, thanks to the use of so-called “hashing” or “digest” algorithms.

These features make these systems very easy to implement and operate, and very cheap. The algorithms are free and open source software, or public domain (for the underlying mechanism), and they are easily adapted to any platform.

On the other hand, these systems are very easy to bypass, through minor changes in the protected file. In consequence, they constitute a very poor protection for rightholders.

Detection “by similarity”

These systems are much more sophisticated. They have a knowledge of media formats, and are able to extract characteristic elements, similar to a fingerprint of the protected content.

This process enables a much wider detection of the content, even heavily modified, for example a barely audible background sound in a family video ou amateur show.

The most famous system in this category is Content-Id, implemented by Youtube, described here by Google. A lot of comments on Article 13 refer to Content-Id as a model. Article 13 itself seems to have been written with Content-Id in mind.

Systems “by similarity” are very expensive to develop and implement. According the the Google video quoted above, Content-Id required an investment of over $100 million.

There are also no free and open source implementation of such systems, which makes it even more difficult to deploy: you need to develop a custom, in-house system, or acquire a license for an existing commercial system, if you find one.  The companies in a position to provide such specific services are rare.

Furthermore, the detection performance (false positive and false negative rates) of these systems is difficult to estimate. First, for the above mentioned reasons (proprietary systems with limited access), second, because the underlying technical processes are based on heuristics which stops them from being fully reliable.

Finally, these system present an important drawback: as explained by Google in the Content-Id presentation video, rightholders must provide the original content, or protected excerpts from the content, which is difficult to achieve on a wide scale (many works and many actors on both roles, rightholders and content sharing platforms).

“watermarking” systems

These systems are mentioned in the annex of the directive. They are only presented here for the sake of completeness. Their costs are comparable to those of similarity detection systems, but they are of limited scope, probably not reasonably usable in the context of Article 13.

Blacklist management

Black list management, independently from the above technical criteria, constitutes an issue in itself.

Article 13 does not really provide satisfactory solutions to the following issues:

  • false positive (over-blocking): blocking legitimate content.
    • erroneous blacklisting by an alleged rightholder
    • erroneous blocking of content protected by an exception (parody, memes, etc), but in which the blacklisting systems have identified protected content.
    • erroneous insertions in the blacklist for other reasons. This happened repeatedly, for example, in the French police DNS blocking systems, including by misconfigured test systems. See [FR] Google.fr bloqué pour apologie du terrorisme suite à une « erreur humaine » d’Orange.
  • false negative (under-blocking): not blocking illegitimate rightholder content. Content protection is difficult to implement, even on the rightholder side: many works have not even been digitalized by their legitimate rightholders.
  • adding new content to the blacklist may require manual, hence heavy, checks, to reduce false positives, but does not guarantee their elimination.
  • unwieldy and unreliable complaint mechanisms: all over-blocking and under-blocking issues have to be handled via human, or even judicial, intervention. But there are daily reports of abusive content removal here or there. For example, under the United States DCMA (Digital Millennium Copyright Act), some rightholders have been known to request content removal on works they didn’t own, by mere title similarity, or by claiming DMCA procedures to force removal of price lists in price comparators.
  • individuals and small companies are defenceless against abusive blocking of their content, if the site-internal reporting mechanism fails to address the issue in time. In most cases, action in court or even using an alternative dispute resolution system (13a) will be too expensive and too slow, resulting in a posteriori self-censorship.

Article 13 in its final redaction does not satisfactorily address these concerns, the last point above being the most worrisome.

The Content-Id system

Although Content-Id is owned by Google and Youtube-specific, it deserves a more thorough examination, as it seems to have been an implicit model for Article 13.

Content-Id is a “detection by similarity”. To use it, rightholders have to provide Youtube with the videos they wish to protect, or samples of these.

When a protected content is identified in a posted video, 3 options are available:

  • block the video
  • monetize the video (advertisement)
  • obtain traffic data, for example to know in which countries the video is popular.

According to Google, Content-Id has already enabled payment of several billions of dollars to rightholders, and the system includes hundreds of millions of videos.

Impact assessment of the directive

The summary of the impact assessment, as annexed to the project, is very incomplete: as compared to the full impact assessment study, it mentions only in part the impact for rightholders, limiting itself to a legal discussion in the digital single market. It doesn’t mention either the efficiency and technical feasibility of Article 13, or its consequences on Internet sites and the Internet ecosystem. It is advised to refer to the full impact assessment study.

1. Disappearance or marginalization of  contributive sites

Contributive sites based on free (Creative Commons, etc) content will not have the resources to exploit, not to mention develop or even rent/subscribe to systems similar to Content-Id.

The impact assessment study provides a real example of the subscribing costs to such a service: €900/month for a small site (5000 transactions/month, ie about €0.18/transaction; a transaction being a single check, needing to be executed for every post by a user).

The study only considers commercial sites where sharing is the main purpose. This fails to recognize the impact on high volume contributive sites, social networks, amateur or family photo sharing sites, classified advertisement, etc, for which there is no significant revenue stream as compared to the cost of monitoring posted content.

Most notably, social networks are targeted, as Article 2/4b of the directive excludes only 3 very specific types of sites from the requirements of Article 13.

  • services acting in a non-commercial purpose capacity such as online encyclopaedia
  • providers of cloud services for individual use which do not provided direct access to the public
  • open source software developing platforms
  • online market places whose main activity is the online retail of physical goods

As a consequence, this first impact on freedom of speech seems underevaluated.

2. All content types are targeted

Most content protection systems currently operated focus on contents from the entertainment industry:

  • videos and movies
  • music

On the other hand, Internet sharing applies to many other types of contents, for example photographs.

Again, the burden on Internet sites will be significant, with the same risks for abusive blocking, which also amplifies the consequences on the other listed issues.

3. Issues with respect to Freedom of Speech

As explained above and confirmed by many non-profit organizations, similarity detection systems are unable to differentiate illegal use from legal use such as a quote, a meme, a parody, etc.

It also happens frequently that works that are initially free of use are erroneously blacklisted, for example after being presented or quoted in protected TV shows or TV news.

In any case, content detection systems already result, when they are implemented, in abusive censorship. To force their generalization through the Directive can only be severely harmful to Freedom of Speech, especially on social networks, making it more difficult to exercise the above mentioned legal exceptions.

Finally, as explained, widening content detection systems to all types of contents can only make this risk more acute.

4. The proposed legal dispositions are inefficient to protect rightholders

As explained, similarity systems like Content-Id are not usable at global scale because of their cost, and exact match systems are easy to bypass.

Furthermore, similarity systems are already deployed on major sites, as explained by the impact assessment study:

In all, as content recognition technologies are already applied by the major user uploaded content services, it is likely that this option would not lead to significant increases in unjustified cases of prevented uploads compared to the current situation

In other words, Article 13 is not needed since the goals it seeks to achieve are already implemented where it matters.

5. The proposed dispositions may be harmful to cultural diversity

The impact assessment studies estimates that Article 13 will promote cultural diversity, which is assumed to be a natural byproduct of rightholder protection.

But Article 13 hampers the ability of contributive and/or non-profit sites, which without a doubt are also part of cultural diversity. Most of their contents are free of rights, hence with naturally maximized visibility and dissemination.

This is evidenced by Wikipedia’s statistics: 5th site in the world, according to the Alexa study. Furthermore, according to Wikimédia France: “platforms will prefer precaution by blocking more content than necessary, which will hamper their diversity, by preventing participation from people less accustomed to new technologies” (translated from « les plateformes opteront pour un principe de précaution en bloquant plus de contenu que nécessaire ce qui réduira la diversité de ces plateformes en empêchant les personnes peu aguerries aux nouvelles technologies d’y participer » here)

In summary, Article 13:

  • would not improve the rightholder’s situation with respect to the big platforms, since these already have deployed content detection and revenue sharing systems;
  • would not improve, either, the rightholder’s situation with respect to non-profit or low traffic platforms, which don’t have the ability to operate complex detection systems, don’t violate protected works other than accidentally thus in a limited way, and are already in position to remove illegal content.
  • represents, on the other hand, the following risks:
    • arbitrary censorship
    • reinforcement of the hegemony of big platforms by introducing significant barriers to entry
    • disappearance or marginalization of non-profit platforms, or fallback of these platforms on static content, removing the content sharing angle which is a key characteristic of the Internet;
  • represents, as well, serious risks regarding Freedom of Speech and Cultural Diversity.

For the above reasons, and as expressed by numerous organizations and renowned experts, it seems likely that Article 13, if kept in the directive, will do more harm than good on the European Internet.

A few references

The Open Letter on EP Plenary Vote, of which (as eriomem.net CEO) I am a signatory:

http://copybuzz.com/wp-content/uploads/2018/07/Copyright-Open-Letter-on-EP-Plenary-Vote-on-Negotiation-Mandate.pdf

2 articles (amongst many others) on Julia Reda’s blog :

Open letter by 70 Internet experts https://www.eff.org/files/2018/06/12/article13letter.pdf

Positions of the EFF (Electronic Frontiers Foundation) https://www.eff.org/deeplinks/2018/06/internet-luminaries-ring-alarm-eu-copyright-filtering-proposal

https://www.eff.org/deeplinks/2018/06/eus-copyright-proposal-extremely-bad-news-everyone-even-especially-wikipedia

Other sites campaigning against Article 13:

https://www.liberties.eu/en/news/delete-article-thirteen-open-letter/13194

https://saveyourinternet.eu/

Statement by the Wikimédia Foundation:

https://blog.wikimedia.org/2018/06/14/dont-force-platforms-to-replace-communities-with-algorithms/

La directive copyright et le problématique article 13

La « directive sur le droit d’auteur dans le marché unique numérique », aussi appelée « directive copyright », est actuellement en cours d’examen au parlement européen ; les amendements (V6 du document) seront votés le 20 juin 2018 en commission “JURI”.

J’ai écrit le texte qui suit pour établir un argumentaire avant d’appeler quelques députés européens (pour être plus convaincant, il vaut mieux connaître son sujet), participant ainsi à la campagne lancée par le site saveyourinternet.eu.

Je vous invite à en faire autant, non sans avoir lu quelques unes des références citées en fin de page, et consulté https://juliareda.eu/2018/06/saveyourinternet/ pour connaître les partis et députés qui sont susceptibles de faire pencher la balance.

Deux articles sont particulièrement problématiques, l’article 11, qui concerne la citation d’articles de presse, mais dont nous ne parlerons pas ici, et surtout l’article 13, qui vise à mettre en œuvre des filtres sur tous les sites participatifs (c’est à dire, visant à partager du contenu, de quelque nature qu’il soit, ceci incluant donc les réseaux sociaux).

L’objectif poursuivi par l’article 13 de la directive est de protéger les ayants-droit de l’industrie du divertissement contre l’hégémonie des plateformes de partage, notamment Youtube, qui provoqueraient une “évasion” de revenus lorsque des œuvres leur appartenant sont diffusées illégalement sur ces plateformes.

La solution proposée est d’instaurer une obligation légale de systèmes de “listes noires” de contenus protégés., sur tous les sites en ligne,  et de tous les contenus, même de ceux qui n’ont pas besoin de protection (par exemple, le code source de logiciel informatique).

Nous allons voir comment de tels systèmes fonctionnent, pourquoi ils sont complexes à mettre en œuvre avec des dégâts collatéraux significatifs, et pourquoi le but recherché est déjà atteint sur les plateformes visées, rendant l’article 13 néfaste.

Les systèmes de “liste noire” de contenus

On peut les classer en trois catégories :

Les systèmes de détection “à l’identique”

Relativement peu coûteux en ressources, ils fonctionnent sur le contenu numérique des fichiers concernés, et n’ont pas besoin de connaître le format ou le type de média, ni même le détail du contenu à protéger, grâce à l’utilisation d’algorithmes de “hachage” (ou “résumé”).

Ces caractéristiques rendent ces systèmes très simples à implémenter et exploiter, et peu coûteux. Les algorithmes concernés sont des logiciels libres / open source, ou libres de droits, et faciles à adapter à toute plateforme technique.

En revanche, ces systèmes sont très faciles à contourner, par simple modification mineure du fichier concerné. Ils ont donc une utilité très limitée pour protéger les détenteurs de droits.

Les systèmes de détection “par similarité”

Ces systèmes sont beaucoup plus complexes. Ils ont la connaissance des formats employés, et en extraient des éléments “caractéristiques”, une sorte d’empreinte digitale du contenu à protéger. Ce procédé d’empreinte permet de détecter un contenu même très altéré, par exemple un fond musical à peine audible dans une vidéo de fête familiale ou de théâtre amateur.

Le plus connu, auquel font fréquemment référence les réactions à l’article 13, est Content-Id, de Youtube, décrit ici par Google.

Les systèmes “par similarité” sont très coûteux à développer et à exploiter. Google cite la somme de plus de 100 millions de dollars d’investissement pour Content-Id. Il n’en existe pas d’implémentation libre de droits, ce qui les rend d’autant plus difficiles à mettre en œuvre : il faut, ou bien développer un système “à façon”, ou bien acquérir une licence d’un système commercial existant, s’il en existe. Les sociétés en mesure de proposer de tels mécanismes très spécifiques sont rares.

Par ailleurs, la qualité des résultats (taux de faux positifs ou faux négatifs) de ces algorithmes est difficile à estimer, d’abord pour les raisons qui précèdent (systèmes propriétaires à accès limité), ensuite parce que les systèmes techniques de détection n’ont pas une fiabilité absolue.

Enfin, ces systèmes souffrent d’un autre défaut important : comme l’explique Google dans la vidéo ci-dessus, les ayants-droit doivent fournir les originaux ou des extraits des contenus à protéger, ce qui est difficile à mettre à œuvre à grande échelle (beaucoup d’œuvres et beaucoup d’acteurs).

Les systèmes par “marquage”

Ces systèmes dits de watermarking, évoqués dans les annexes de la directive, ne sont cités ici que pour mémoire. Ils ont des coûts similaires aux systèmes par similitude, mais sont d’application limitée, peu envisageables dans le cas de l’article 13.

La gestion des listes noires

La gestion des listes constitue, indépendamment des procédés techniques qui précèdent, un problème en soi.

Ni l’article 13 en sa rédaction originale, ni les amendements proposés, qui le complexifient considérablement, ne proposent de solution suffisante aux problèmes sous-jacents :

  •  risque de sur-blocage : blocage de contenus qui ne sont pas en infraction, en raison d’un enregistrement abusif par un détenteur de droit supposé, blocage de contenus bénéficiant d’une exception (mèmes, parodies, etc) dans lesquels les automates ont reconnu un contenu protégé.  Le risque existe si la liste noire est mal alimentée, ce qui a déjà été observé dans d’autres contextes, par exemple à plusieurs reprises avec le système national de blocage DNS de la police française, y compris par des systèmes de test mal configurés : voir Google.fr bloqué pour apologie du terrorisme suite à une « erreur humaine » d’Orange).
  • risque de sous-blocage : non blocage de contenus soumis à droits. L’enregistrement des contenus est lourd à mettre en œuvre ; de nombreux contenus n’ont même jamais été numérisés par leurs détenteurs légitimes
  • L’ajout en liste noire peut nécessiter une vérification manuelle, donc lourde, pour réduire les taux de faux positifs sans pour autant les faire disparaître.
  • lourdeur et manque de fiabilité des procédures de contestation : tous les cas de sur-blocage ou de sous-blocage doivent être traités par intervention humaine, voire judiciaire. Or, les cas de censure abusive sont quotidiens ; cela a été observé avec le DMCA (Digital Millenium Copyright Act) états-unien, où des détenteurs de droits ont engagé des procédures sur des œuvres qui ne leur appartenaient pas, sur similarité de titre, ou par détournement de finalité pour obtenir le retrait de listes de comparateurs de prix. L’amateur est démuni devant la lenteur et le coût d’un recours éventuel en justice en cas de blocage abusif.

Ni l’article 13 originel, ni les amendements ne répondent de manière satisfaisante à ces points, et en particulier au problème des blocages abusifs, où la solution de dernier recours proposée est une procédure en justice.

Le système Content-Id

Bien qu’appartenant à Google et spécifique à Youtube, ce système nécessite un examen plus détaillé. Il semble en effet avoir servi de modèle implicite à l’article 13.

Content-Id est un système de détection “par similarité”. Pour en bénéficier, les détenteurs de droits doivent fournir à Youtube des vidéos à protéger, ou des échantillons.

Ensuite, 3 options sont proposées en cas de détection d’un contenu “à protéger” :

  • bloquer la vidéo
  • monétiser celle-ci (publicité)
  • obtenir des données de consultation, pour savoir par exemple dans quels pays la vidéo est populaire

Selon Google, Content-Id a déjà permis le reversement de plusieurs milliards de dollars de revenus. Le système inclurait des centaines de millions de vidéos.

Impact de la directive

Le résumé de l’étude d’impact joint au projet de directive est très incomplet : en comparaison de l’étude d’impact complète, il ne parle que très partiellement de l’impact pour les détenteurs de droits, se limitant à une réflexion juridique sur le marché unique, et n’évoque pas l’efficacité et la faisabilité technique des mesures, ni l’impact sur les sites et l’écosystème Internet. Il est conseillé de se reporter à l’étude d’impact complète.

1. Disparition ou marginalisation des sites contributifs

Les sites de partage de contenus libres et sites contributifs n’auront pas les ressources financières pour exploiter,  a fortiori développer, ni même louer, des systèmes équivalents à Content-Id.

L’étude d’impact fournit un exemple de coût d’abonnement à un tel service : 900€/mois pour un petit site (5000 transactions/mois, soit 0,18€/transaction).

Mais l’étude n’en considère l’impact que pour des sites commerciaux dont le partage est la vocation principale, omettant donc l’impact négatif sur les sites participatifs et contributifs à fort volume (tels que Wikipédia), les réseaux sociaux, les sites de partage de photos amateurs ou familiales, petites annonces, etc, pour lesquels les revenus sont inexistants ou faibles en comparaison des coûts d’une vérification a priori des contenus.

Ce premier impact sur la liberté d’expression est donc minimisé.

2. Tous les contenus sont visés

Les systèmes de protection des droits d’auteur actuellement déployés s’intéressent essentiellement aux contenus qui concernent l’industrie du divertissement :

  • vidéos et films
  • musiques

Or, les partages sur Internet concernent bien d’autres types de contenus, notamment :

  • logiciels en source (logiciel libre)
  • photographies

Là encore, l’impact sur le coûts de fonctionnement des services en ligne concernés sera significatif, avec les mêmes risques de censure abusive des contenus, donc impact amplifié sur tous les autres points cités ici.

3. Dangers à l’égard de la liberté d’expression

Comme l’ont signalé de nombreuses associations, et comme expliqué ici, les systèmes par similarité sont incapables de distinguer une contrefaçon, un plagiat, une parodie, un mème, etc. Il est également fréquent que des œuvres libres de droit se retrouvent indûment répertoriées, par exemple parce qu’elles sont apparues ou ont été citées dans une œuvre soumise à droits (reportage télévisé, émission, etc).

Dans tous ces cas, les robots de détection produisent déjà, là où ils sont mis en œuvre, des censures abusives. Forcer l’extension de leur usage par la directive ne peut donc résulter qu’en des atteintes supplémentaires et sérieuses à la liberté d’expression, tout particulièrement sur les réseaux sociaux, rendant impossible ou difficile l’exercice des exceptions légales citées ci-dessus.

Enfin, comme exprimé précédemment, l’élargissement à tous les types de contenus ne peut qu’accentuer ce risque.

4. Inefficacité du dispositif pour protéger les ayants-droit

Comme on l’a vu, les systèmes de type Content-Id ne sont pas généralisables en raison de leur coût, et les systèmes de détection de contenus à l’identique sont faciles à contourner.

En outre, ces systèmes sont déjà mis en œuvre sur les grands sites, comme l’étude d’impact le reconnaît :

In all, as content recognition technologies are already applied by the major user uploaded content services, it is likely that this option would not lead to significant increases in unjustified cases of prevented uploads compared to the current situation

L’étude estime que l’article 13 ne pénalisera pas la liberté d’expression, ce qui n’est pas avéré, mais on peut dire également que l’article 13 serait d’une utilité limitée sur les plateformes visées.

5. Inefficacité du dispositif pour promouvoir la diversité culturelle

L’étude d’impact affirme que l’article 13 favorise la diversité, celle-ci étant supposée découler directement de la protection des ayants-droit.

Or,  l’article 13 défavorise les sites contributifs et/ou non lucratifs, qui font eux aussi partie de la diversité, avec des contenus souvent libres de droits, donc d’une diffusion naturellement maximale. Les statistiques d’audience de Wikipédia le démontrent : 5e site mondial d’après l’étude Alexa. De plus, selon la fondation Wikimédia France, « les plateformes opteront pour un principe de précaution en bloquant plus de contenu que nécessaire ce qui réduira la diversité de ces plateformes en empêchant les personnes peu aguerries aux nouvelles technologies d’y participer ».

En résumé, l’article 13 :

  • n’améliorerait en rien la situation des ayants-droit vis-à-vis des grandes plateformes, celles-ci ayant déjà déployé des systèmes de détection et de reversement de droits ;
  • n’améliorerait en rien, non plus, la situation des ayants-droit par rapport aux plateformes non commerciales ou de faible audience, qui n’ont pas la capacité de déployer des systèmes complexes, ne pratiquent pas de contrefaçon des œuvres protégées autre qu’accidentelle donc marginale, et sont déjà en mesure de retirer les contenus illégitimes  ;
  • présente, en revanche, de grands risques de censure arbitraire, de confortement de la position des grandes plateformes par la création de barrières significatives à l’entrée, de disparition pure et simple des plateformes non lucratives, ou de repli de celles-ci sur de la diffusion de contenus figés, sans aspect participatif ;
  • présente également des risques graves vis-à-vis de la liberté d’expression et de la diversité culturelle.

Pour toutes ces raisons, et comme l’ont également exprimé de très nombreuses associations et experts renommés, il semble préférable d’abandonner totalement l’article 13 en l’état actuel des connaissances et techniques.

Quelques références

Deux articles sur le blog de Julia Reda, la députée allemande qui a été en pointe sur la critique des articles 11 et 13 :

La lettre ouverte de 70 experts de l’Internet https://www.eff.org/files/2018/06/12/article13letter.pdf

Les avis de l’EFF (Electronic Frontiers Foundation) https://www.eff.org/deeplinks/2018/06/internet-luminaries-ring-alarm-eu-copyright-filtering-proposal

https://www.eff.org/deeplinks/2018/06/eus-copyright-proposal-extremely-bad-news-everyone-even-especially-wikipedia

D’autres sites faisant campagne contre l’article 13 :

https://www.liberties.eu/en/news/delete-article-thirteen-open-letter/13194

https://saveyourinternet.eu/

La position de la fondation Wikimédia :

https://blog.wikimedia.org/2018/06/14/dont-force-platforms-to-replace-communities-with-algorithms/

La position de Wikimédia France :

https://www.wikimedia.fr/2018/06/11/reforme-europeenne-droit-dauteur/

La position de la Quadrature du Net, plus complexe, qui a laissé perplexe bon nombre de gens (je déconseille le point 1 de l’argumentaire, non souhaitable à mon avis) :

https://www.laquadrature.net/fr/copyright_plateforme

Autres liens :

2 articles détaillés de l’indispensable nextinpact.com (abonnez-vous !) qui suit le sujet depuis longtemps :

Pourquoi les mèmes sur Internet sont en danger https://www.bfmtv.com/tech/pourquoi-les-memes-sur-internet-sont-en-danger-1468454.html

Adieu mèmes et parodies ? Pourquoi « l’article 13 » menace Internet https://usbeketrica.com/article/adieu-memes-et-parodies-pourquoi-l-article-13-menace-internet

Censure sans juge d’Internet et délit d’opinion

Vous avez peut-être (mais sans doute pas) entendu parler des lois LOPPSI et Terrorisme (cette dernière votée fin 2014) et de leur décret d’application (sorti en début d’année 2015).

Ces lois permettent à la police, sans intervention d’un juge et sans aucune transparence, de bloquer, avec l’aide de certains fournisseurs d’accès (pour l’instant, seuls les 4 plus gros en France, à savoir Orange, Free, SFR et Bouygues) un site Internet faisant l’apologie du terrorisme.

Pour ne pas accabler le gouvernement, il faut savoir que le PS a combattu le blocage sans juge avec succès lorsqu’il était dans l’opposition, pendant le mandat Sarkozy, avant de le voter quasi unanimement en 2014, avec l’aide du PCF (qui voulait en fait voter contre mais ne s’en est aperçu qu’après).

Le blocage, techniquement parlant, est un blocage DNS, mais cela n’a guère d’importance ici.

Le premier site dont quelqu’un (un journaliste spécialiste du djihadisme, David Thomson) constate publiquement le blocage — puisque tout cela côté administration se fait dans l’opacité la plus totale — est islamic-news.info. C’est un site dont, personnellement, je n’avais jamais entendu parler jusqu’à ce jour. Si vous cliquez sur ce lien, vous allez vous retrouver :

  • ou bien sur une page d’avertissement du ministère de l’Intérieur, si votre FAI est l’un des quatre susnommés et que vous utilisez leurs serveurs DNS ;
  • ou sinon sur rien du tout, le site en question (chez un hébergeur français) ayant été manifestement coupé (on ne sait pas par qui).

Théoriquement, le principe de subsidiarité veut que l’hébergeur ait 24 heures pour couper le site incriminé ; le blocage DNS n’étant supposé être activé qu’à l’issue de ce délai et en l’absence de coupure par l’hébergeur ou l’éditeur. En fait, le blocage DNS n’était théoriquement destiné qu’à censurer sur le territoire français, les sites étrangers, non soumis à la LCEN. On voit donc que le ministère de l’Intérieur a interprété au sens large la loi qui a été votée en l’appliquant à un site hébergé en France.

Les deux blocages ayant été mis en place, rien ne dit que ce délai a été respecté (mais rien ne dit non plus le contraire), en raison de l’opacité des procédures. [mise à jour 16/3/2015] En fait, l’hébergeur affirme ne pas avoir été notifié au préalable. “Pq personne ne nous a notifié LCEN pour fermer le site ? J’apprends ce matin qu’il a été bloqué par le M Intérieur !?”.

Voici la page d’accueil de la police (qui ne fonctionne que si on arrive par un lien “principal” du site bloqué, et pas par un lien interne).

police

Cela dit il est facile de voir la page d’accueil du site (hors images) car celle-ci est encore visible dans le cache Google :

cacheislamicinfo

 

Il s’agit d’un site d’actualités islamiques apparemment assez “engagé”, comme d’autres sites non moins engagés mais sur d’autres sujets, également situés en France.

Le site fait-il vraiment l’apologie du terrorisme ? Difficile à dire, on entre là dans le jugement de valeur.

Et c’est bien tout le problème.

La police a “jugé” (guillemets) que oui, ce site fait l’apologie du terrorisme. Nous sommes obligés de lui faire confiance, n’ayant ni accès à l’intégralité du site, ni la possibilité de trouver quel est le contenu incriminé précisément (cela ne me saute pas aux yeux sur la page d’accueil).

La décision de la police n’a pas à être motivée, tout juste est-elle susceptible de recours gracieux, hiérarchique puis contentieux — les nouvelles règles sur l’acceptation implicite de l’administration en l’absence de réponse de sa part dans le délai imparti ne s’appliquent pas ici, ce serait trop beau :

En l’absence de réponse de l’administration dans un délai de deux mois à compter de la date de réception de votre recours, celui-ci doit être considéré comme implicitement rejeté.

Ensuite un recours est possible auprès du tribunal administratif de Cergy-Pontoise, ce qui est rendu d’autant plus difficile que la décision à contester n’est ni publique ni motivée.

La loi suscitée permet également à la police française d’exiger le déréférencement par Google et les autres moteurs de recherche, sans aucun recours prévu en revanche de ce côté.

Nous nous retrouvons donc dans un régime où la police, sans contre pouvoir réel car avec des voies de recours extrêmement difficiles et aléatoires, peut décider de ce que nous avons le droit de voir ou pas.

Vous pensez peut-être que, pour lutter contre le terrorisme, cela est parfaitement anodin et normal, et que les services administratifs de la police n’ont de compte à rendre à personne en termes de transparence.

[Mise à jour du 17/3/2015 “Beauvau n’avait pas prévu de communiquer initialement” sur ce sujet, nous apprend un article du Monde, mais dans ce même article nous apprenons que ces sites ont été ciblés parce qu’ils “ne constituaient pas des médias stratégiques pour les services de renseignement français, qui en ont besoin pour surveiller des candidats au djihad“. Autrement dit, les sites bloqués ne sont que des sites de seconde zone pour amuser la galerie, sans souci d’efficacité autre que médiatique. ]

Sachez alors que Christiane Taubira, ministre de la justice, propose l’extension de ce blocage sans juge aux contenus antisémites et racistes — sur simple estimation opaque et non motivée de la police, là encore.

Sachez enfin qu’un député PS, Guy Delcourt, du Pas de Calais, a demandé très récemment l’extension de ce blocage aux injures envers les élus (uniquement envers les élus), sous couvert de protection de la démocratie. C’est ici, trouvé par l’œil affûté de Nextinpact :

http://questions.assemblee-nationale.fr/q14/14-75404QE.htm

 

Dans l’indifférence, pour ne pas dire l’approbation, quasi-générale,  l’état de droit continue donc de s’effriter peu à peu avec la mise en place par nos gouvernements et parlementaires de procédures d’exception, sous prétexte de protection de… l’état de droit.

[mise à jour du 18/3/2015] à lire absolument car elle donne un tout autre point de vue, la réponse de l’auteur du site islamic-news.info chez Numérama.

[mise à jour du 16/3/2015] Incidemment, on remarquera que la page Facebook de Islamic-News existe toujours : seul un blocage complet de Facebook en France serait possible, ce à quoi la police n’a pas osé procéder. Le blocage DNS va donc pousser les groupes fondamentalistes à recentrer leurs contenus sur les sites comme Facebook et Youtube, qui pratique une censure qui leur est propre.

Compléments :

[mise à jour du 16/3/2015] Il y a (au moins) 2 autres messages à d’autres adresses IP, dénichés par Stéphane Bortzmeyer.

90.85.16.50 prévue pour le “contenu illicite” en général, sans précision.

mi-illicite

90.85.16.51 pour la “pornographie enfantine”

mi-porno

[mise à jour 16/3/2015 18h20] apparemment le ministère d’Intérieur n’apprécie pas que l’on aille consulter sa page d’interdiction sans vouloir aller sur un site interdit.

miforbid

J’ai donc créé les adresses interieur0.eu.org  interieur1.eu.org interieur2.eu.org

[mise à jour du 17/3/2015 9h38] Un article d’Amaëlle Guitton indique les autres sites bloqués, qui eux sont encore accessibles si on n’utilise pas un DNS menteur : .

Petite histoire de la neutralité d’Internet à travers les âges

Comme vous le savez sûrement, la FCC (Federal Communications Commission) des USA a voté en faveur de la neutralité d’Internet aux USA.

Aussitôt, les telcos (opérateurs) US se sont élevés pour dire, en substance, que c’était une stupidité qui allait les empêcher de facturer plus cher, de mettre en place des priorités, et “donc” — je leur laisse la responsabilité du lien de causalité supposé — d’innover [alors qu’on peut démontrer, comme je l’ai fait ici, l’inverse d’un point de vue rationnel, et a fortiori quand on regarde l’histoire du Minitel tué par Internet et la loi de Moore]

Pour expliquer à nouveau pourquoi ils disent à nouveau des bêtises, il est intéressant de revenir sur différents épisodes similaires qui ont marqué l’histoire des réseaux de données.

1969 : Arpanet 1, Telcos 0

À la fin des années 1960, lorsque les concepteurs du réseau Arpanet (prédécesseur d’Internet) ont commencé à travailler, ils sont allés voir les opérateurs de télécommunications US, ou plus précisément, L‘opérateur de télécommunications US : AT&T, pour lui demander son avis sur l’architecture prévue.

AT&T a regardé les schémas de haut, et leur a répondu en substance : “écoutez les petits amis informaticiens, vous êtes bien gentils, mais votre truc, ça ne marchera jamais. Oh, vous allez bien vous amuser et échanger quelques données entre potes, mais passé une certaine échelle, tout s’écroulera. Chez nous, pour transmettre la voix, on construit les réseaux de manière fort différente, parce que la voix, c’est compliqué. Alors votre réseau ne saura jamais transmettre la voix correctement”.

Et on crut le telco. Les concepteurs d’Arpanet ont conçu Arpanet quand même, sans trop s’inspirer des conseils du telco, et pour connecter différents sites de recherche et échanger des courriers électroniques et des fichiers, cela fonctionnait très bien.

Peu après, au début des années 70, en France, Louis Pouzin et son équipe, informaticiens eux aussi, inventaient pour leur réseau expérimental Cyclades la lettre postale du numérique : le datagramme, le paquet de données ; qui disposait d’une adresse destination, comme une lettre, et qui permettait d’envoyer les données par morceaux.

Et également pendant ce temps, en France, les chercheurs de l’opérateur national concevaient également le futur réseau de transmission de données, Transpac, conçu suivant les règles de l’art, enfin, les règles de l’art des telcos, et une norme internationale, X.25. Tout cela calqué directement sur le modèle du réseau téléphonique, mais sans notion réelle de priorité, qui n’importait pas à l’époque : Transpac n’était fait que pour transporter des données, pas la voix. La voix, c’était la seule vraie application de masse des réseaux, elle était facturée cher car volumineuse, et à l’époque la connexion d’un gros serveur Transpac avait un débit largement inférieur à celui nécessaire pour une simple communication vocale.

Cyclades se développa, Transpac se développa et rapidement il fallut choisir quel serait le réseau déployé nationalement pour être commercialisé. Que croyez vous qu’il arriva ? Transpac, soutenu par l’opérateur national et conçu suivant les règles de l’art par les spécialistes de la question, remporta la manche.

1974 : Cyclades 1, X.25 0

Pendant ce temps, aux USA, Vint Cert et ses collègues reprenaient les idées de Cyclades : le datagramme, l’adressage logique, l’interconnexion des réseaux, et j’en passe, pour inventer TCP/IP qui devait permettre à Arpanet de devenir l’Internet que nous connaissons. Les telcos se pinçaient le nez devant à peu près l’intégralité de ces idées, qui violaient sauvagement les règles de l’art établies depuis des décennies par les spécialistes de la voix.

Puis au milieu des années 80 arriva en France le Minitel, qui répondait rigoureusement aux idées des telcos pour monétiser leur activité : faire payer à la connexion, à la durée, et éventuellement au débit. Car, comprenez-vous, il fallait éviter que les gens abusent du réseau et y prennent plus que leur part. Le meilleur moyen était de facturer rigoureusement à l’usage, non ?

Et on les crut. le Minitel fut un succès.

1980s : Internet 1, X.25 0

Pendant ce temps, Internet suivait le modèle des rigolos universitaires et chercheurs, qui n’étaient là que pour avoir un réseau qui marche entre eux et au moindre coût, et qui n’avaient pas les moyens de se payer X.25, équipements plus lourds, facturation plus chère, modèle moins souple.

Internet se développa d’abord aux US, puis commença à la fin des années 80 à conquérir le monde de la recherche, notamment en Europe, et finit rapidement par se trouver ici ou là nez à nez avec X.25, et lui fut largement préféré par ceux qui avaient le choix, parce qu’ils n’y connaissaient rien, les pauvres.

Quelques opérateurs Internet français ou européens, les données étant encore chères à l’époque, décidèrent d’appliquer un modèle de facturation inspiré du Minitel (qui avait pourtant amorcé son repli) pour répartir équitablement les coûts et éviter les abus, et moururent très rapidement face à ceux qui fournissaient des offres au forfait.

Voyant qu’Internet devenait de plus en plus fort, les opérateurs de télécoms n’étaient pas en reste. Ils avaient depuis la fin des années 80 travaillé sur les protocoles du futur, et en particulier l’ATM, asynchronous transfer mode. L’ATM était le réseau de données du futur : il était conçu suivant les règles de l’art et permettait de garantir la qualité de service, le débit, que-sais-je, en réservant et en facturant la réservation des ressources réseau, par souci d’équité et de business model sonnant et trébuchant.

Vous comprenez, il fallait bien que les telcos aient une motivation pour développer le réseau ! ATM était le vrai réseau des professionnels, permettrait de transporter correctement de la voix, de la vidéo, et toutes ces choses qu’Internet était totalement incapable de fournir sérieusement à grande échelle et internationalement, soyons sérieux.

Au milieu-fin des années 90, ATM était prêt et, c’était sûr selon les telcos, allait remplacer Internet dans le développement naturel des réseaux de données.

1990s : Internet 1, ATM 0

Curieusement, cela ne marcha pas : ATM était techniquement trop cher en matériel comme en utilisation, n’arriva jamais à se développer pour les communications internationales où il s’annonçait encore plus onéreux voire impossible à faire fonctionner avec les garanties luxueuses annoncées, et là encore Internet lui était quasi systématiquement préféré par les gens qui avaient le choix. L’histoire de X.25 avait tendance à bégayer.

ATM se retrouva cantonné aux département de recherche des spécialistes en télécom, et Internet devint le réseau international sérieux, c’est à dire exactement l’inverse de ce que les telcos avaient soigneusement planifié. Ceux-ci, pour éviter de se faire mettre au placard dans les 5 ans suivants, rachetèrent massivement les petits opérateurs Internet de l’époque, ou changèrent leur fusil d’épaule.

Donc nous sommes en 2015, où après 4 échecs sanglants du modèle telco des vrais spécialistes, les vrais spécialistes reviennent nous expliquer que la neutralité d’Internet, ce n’est pas bien sérieux et ça va empêcher le réseau de se développer pour faire des vraies choses dont nous allons avoir besoin très bientôt.

Alors… vous les croyez encore, vous ?

Qualité de service et neutralité d’Internet

Je pose ici cette explication issue de réflexions personnelles suite à ma participation à une table ronde sur la neutralité au Forum sur la Gouvernance d’Internet 2014 — invité par l’AFNIC —, et en réaction plus générale à certains arguments d’opérateurs vis à vis de la neutralité d’Internet.

Désolé, il n’y a pas d’introduction sur ce qu’est la neutralité, en soi c’est déjà un long débat, mais le petit sketch ci-dessous de John Oliver permet de se mettre rapidement à niveau si vous comprenez l’anglais, sachant que la situation en Europe est beaucoup plus nuancée (pas de monopole, pas encore de législation anti-neutralité) mais que les telcos (opérateurs de télécommunications) n’y sont pas moins actifs en matière de lobbying.

On se reportera également au site de la Quadrature du Net et à un billet très complet de Stéphane Bortzmeyer ; mais ce dernier passe trop rapidement à mon goût sur un point technique particulièrement révélateur, sur lequel je voulais revenir.

La qualité de service, c’est quoi ?

La qualité de service (souvent abrégée QoS pour Quality of Service), c’est en vrac :

  • un terme marketing, pour dire que c’est drôlement mieux avec que sans, et que (donc ?) ça se paye ;
  • une façon de promettre, et parfois même de garantir, des temps de réponse les meilleurs possibles ;
  • des mesures techniques bien précises en matière de réseau.

Tout cela est relié, bien sûr. L’utilisation indifférenciée du terme permet souvent de faire passer des vessies pour des lanternes.

Je ne vais donc m’intéresser qu’au dernier point, car, pour avoir déjà géré un grand réseau interne avec mesures de qualité de service (qui se sont avérées largement superflues), j’ai vite vu que ce que l’on nous vend est un peu moins sexy que ce que l’on nous promet.

La qualité de service en réseau, c’est quoi ?

La qualité de service recouvre des mesures techniques variées. Il y en a deux qui m’intéressent ici, les principales :

  • le shaping ou mise en forme du trafic
  • la priorisation, ou ordonnancement

La qualité de service consiste à traiter différemment des trafics de nature différente (on parle de classes de trafic), afin d’« optimiser » l’utilisation du réseau.

Dans le premier cas, shaping, il s’agit de donner à une certaine classe des limites en termes de débit réel consommé. Autrement dit, plutôt que laisser le trafic correspondant s’écouler naturellement et utiliser l’espace disponible, on va le limiter artificiellement en dessous de la capacité réelle.

Dans le second cas, priorisation, il s’agit, exactement comme avec les cartes coupe-file au cinéma, de traiter le trafic sortant non plus dans l’ordre d’arrivée, mais en faisant passer les paquets prioritaires en premier.

Dans un cas comme dans l’autre, aucun trafic n’est accéléré, et aucun réseau n’est en fait optimisé : au final c’est en effet strictement le même trafic qui est transporté, dans un temps identique (en l’absence de shaping) ou supérieur (si le shaping est là pour ralentir certaines classes de trafic).

Mieux : une file prioritaire, comme au cinéma ou sur la route, n’a d’intérêt que si les autres files sont congestionnées. Sinon, tout le monde passe à vitesse normale.

Et les deux mesures vont très bien ensemble, car le shaping est la création forcée d’une attente, donc d’une file.

On remarquera aussi qu’à aucun moment la QoS ne fait fonctionner le réseau plus rapidement. Pourtant, c’est ce que l’on est tenté de croire, avec des termes si chatoyants.

Sur un réseau utilisé en dessous de sa capacité, il n’y a aucune attente. Donc, la QoS par priorisation est invendable : elle n’apporte rien, pourquoi payer plus cher ?

Pour que la QoS soit vendable, il faut donc conserver le réseau dans un état à la limite de la saturation.

Mais que nous disent les opérateurs pour justifier l’abandon de la neutralité ? “La gestion de trafic et la facturation de la QoS permettront de motiver les opérateurs à financer l’investissement dans la capacité du réseau.”

Eh bien non, la réalité est exactement contraire. Le but est de passer d’un marché d’abondance (on appelle ça “un marché de la demande”) à un marché de la pénurie (un “marché de l’offre” en termes polis, je cite la Fédération Française des Télécoms).

Pour une autre démonstration dans une situation plus ancienne mais similaire, voir aussi mon billet sur le Minitel vs Internet.

De la pénurie gérée du Minitel à l’abondante neutralité d’Internet

Fatigué d’entendre que le Minitel était une belle réussite française (ce qu’il fut tout de même un peu), j’ai voulu écrire ce petit billet sur ce que j’en pensais. Et je me suis rappelé qu’on pouvait en tirer certains enseignements sur l’Internet d’aujourd’hui et certaines évolutions demandées par les opérateurs de télécommunications (aussi parfois appelés telcos).

Le Minitel

Derrière le Minitel, pure invention d’opérateur de télécommunications, se cachaient 2 éléments techniques :

  • le réseau Transpac (nom commercial du service X.25 France Télécom), le réseau de transmission de données sous-jacent
  • le réseau Télétel (frontaux “vidéotex” et points d’accès PAVI).

La tarification au volume : Transpac

Un site connecté à Transpac payait :

  • au débit physique binaire de la connexion (ici, 48 Kbps étaient considérés une connexion “haut débit”)
  • à la capacité en nombre de circuits virtuels (connexions clients) pouvant être établis simultanément
  • au nombre de circuits virtuels effectivement établis
  • au volume de données échangées (nombre d’octets émis ou reçus)

Et j’en oublie probablement. Logique ? Logique. Comptablement.

Dans Transpac, l’innovation tarifaire principale par rapport aux transmissions de données sur réseau téléphonique classique était un coût indépendant de la distance (en France) et de la durée de communication. Hors de cela, Transpac permettait comme Internet, et à la différence du réseau téléphonique, d’établir des liaisons avec plusieurs sites distants simultanément, mais c’est un détail ici.

Mais Transpac se trouvait sur un créneau intermédiaire bâtard : beaucoup plus onéreux que le réseau téléphonique pour les petites quantités de données, et beaucoup plus onéreux que les liaisons numériques fixes au forfait pour les grandes quantités de données. Restait l’intérêt des services accessibles, mais à l’époque ils étaient extrêmement peu nombreux.

En somme, un réseau mutualisé sans les avantages théoriques d’un réseau mutualisé, autrement dit une mutualisation qui profitait surtout à l’opérateur (c’est presque normal, c’est son métier).

La tarification à la durée : le Minitel

La première motivation du Minitel était simple : remplacer le coûteux annuaire papier et le service de renseignements téléphoniques par un service en ligne. Donnant accès à un annuaire national à jour, plus rapide et plus pratique.

En toute logique, le Minitel était également une application rêvée pour développer le trafic sur le réseau Transpac et réaliser ainsi des économies d’échelle.

Cerise sur le gâteau pour remplir le tiroir caisse, France Télécom eût l’idée du système de “Kiosque” électronique : des services facturés à la durée de connexion. C’était simple à comprendre pour l’abonné au téléphone de l’époque, bien plus simple que d’abscons volumes de données.

Le système prit le nom de “Kiosque” parce que la presse française, après ses habituels cris d’orfraie devant chaque innovation technologique risquant de mettre en péril la vente d’encre sur arbres morts, avait exigé que le système soit verrouillé à son profit, histoire d’éviter que la liberté d’expression profite un peu trop aux autres. Il fallait donc posséder un numéro de commission paritaire de la presse pour ouvrir un service Minitel, petit écueil bureaucratique qu’il était facile de contourner.

Il existait différents services et tarifications :

  • le 11, annuaire électronique, gratuit les 2 premières minutes, le service le plus utilisé
  • le 3615 (initialement 36 15 91 77), le service “monétisé” : 98 centimes/minute payés par l’appelant, une partie reversée par France Télécom au site accédé.
  • le 3614 (36 14 91 66) : accès payé par l’appelant, rien n’était reversé au site accédé
  • le 3613 (36 13 91 55) : accès payé par le site accédé
  • ensuite, plus récemment, une kyrielle de numéros typer 3617, 3618, etc à la tarification plus élevée pour des services “professionnels”.

Très bien tout ça. Dans une logique monopolistique, fermée où le temps ne s’écoule pas (donc où la loi de Moore n’a pas cours).

Et pour un jeune geek, il faut reconnaître que c’était un moyen économique et idéal de découvrir le monde merveilleux des communications de données.

Mais…

Et l’évolution des services ?

On pourrait dire l'”innovation” mais ce mot est tellement galvaudé aujourd’hui qu’il ne veut plus rien dire. Avec le Minitel, réseau cloisonné géré de bout en bout par France Télécom, ce dernier était seul en mesure de mettre en œuvre des évolutions techniques. Venant de tiers, il ne pouvait s’agir que d’innovation de services.

Alors qu’il était économiquement raisonnable pour une tierce partie, même aux moyens limités, de réaliser l’indexation d’Internet, comme l’ont montré les premiers annuaires et moteurs de recherche dès le milieu des années 1990, l’équivalent sur Minitel était quasiment impossible en raison du système de tarification. Seul l’opérateur aurait pu réaliser une indexation, à condition d’inventer de nouvelles conditions tarifaires et techniques hors du cadre initial.

C’est du côté du 11 qu’eurent lieu des initiatives intéressantes. La gratuité des 2 premières minutes d’accès permit l’éclosion de services d’indexation revendant les informations glanées sous forme d’annuaires inversés. Sans que cela profite le moins du monde à France Télécom (moult procès s’ensuivirent — autant de perdu pour l’innovation).

Le Minitel était donc de fait coincé dans un système de services télématiques cloisonnés les uns des autres. Cela marcha plutôt bien pendant une bonne dizaine d’années.

Et l’évolution des débits ?

Le système de paiement à la durée a également, en toute logique, débouché sur nombre d’abus : prime explicite à la lenteur, il n’incitait pas à améliorer les performances des services. Mieux, certains services (les services de téléchargement de logiciel, en particulier) inséraient explicitement des délais bidon dans l’affichage des pages afin de pouvoir engranger un revenu minimal prévu à l’avance. Cette attente artificielle hors de toute logique technique commençait à démontrer les limites du modèle de facturation à la durée…

Autre écueil : la facturation à la durée avec reversement ne poussait pas à l’évolution technologique « naturelle ».

Entre 1984 et 1994, alors que le débit des modems progressait d’un facteur 12 à peu près (de 1200 à 14400 bps) et n’avait pas fini de croître, le Minitel restait désespérément coincé à 1200 bps. D’une part, personne dans les bénéficiaires de la manne n’avait intérêt qu’il en soit autrement vu le système de facturation, d’autre part, il fallait bien amortir au maximum les investissements réalisés par France Télécom dans les terminaux.

En 10 ans le débit fétiche du Minitel était passé de “dernier cri” à “totalement dépassé”.

Il y eut quand même vers le milieu des années 1990 une tentative pour déployer des Minitels “accélérés” permettant d’accéder plus vite à la même chose, pour plus cher bien sûr. Mais quel est l’intérêt d’accéder plus vite à un service où le temps de connexion dépend principalement de la rapidité à peu près invariable de l’utiisateur ?

Mais c’était de toute façon trop tard : les services phares du Minitel (annuaire, SNCF, banques) étaient déjà accessibles sur Internet, sans facturation à la durée, avec un bien meilleur confort.

Alors ?

Il n’y a aucun doute, quoi qu’il en soit et indépendamment du système de facturation, que le Minitel aurait tôt ou tard été laminé par Internet.

Mais l’expérience du Minitel démontre au moins quatre choses (en fait trois, les deux premières n’étant que la contraposée l’une de l’autre) :

  • les telcos raisonnent et travaillent dans une logique de pénurie. On appelle cela un réseau de télécommunications : facturer aussi cher que possible le service le plus réduit possible, rentabiliser au maximum les investissements (c’est à dire : retarder aussi longtemps que possible les augmentations en capacité). Le discours sur les “services gérés”, la “qualité de service”, la “différenciation” est pour l’essentiel un synonyme de “pénurie organisée et monétisée”. Vendre de la priorité implique un réseau en limite de capacité, donc faiblement dimensionné, de la même manière que les cartes “coupe file” au cinéma n’ont d’intérêt que lorsqu’on passe du temps à attendre.
  • par contraste, Internet fonctionne “naturellement” dans une logique d’abondance, le réseau informatique : le plus simple possible, le plus rapide possible, le plus fiable à coût aussi réduit que possible (best effort), en profitant de toute évolution technologique dès qu’elle est abordable. Alors que les telcos nous expliquent doctement depuis 30 ans que “ça ne peut pas marcher sur le long terme, vérité des coûts, rentabilisation, etc” (et qu’allons nous faire quand nous voudrons passer de la voix ? De la vidéo ? Ah tiens, ça marche…), le modèle Internet s’est révélé plus durable que l’ensemble des modèles alternatifs tentés par les telcos pendant la même période, et les a même sévèrement laminés les uns après les autres. Dernier exemple en date : l’IP mobile qui n’a décollé et dont les coûts n’ont baissé que suite à l’arrivée massive de smartphones gloutons.
  • le modèle de facturation/reversement a une importance capitale sur les équilibres à long terme. Particulièrement en France où les chapelles établies feront tout pour limiter les évolutions qui leur seraient défavorables. La facturation variable sous prétexte de “vérité des coûts” s’est avérée contre-productive à répétition depuis 30 ans.
  • loin de favoriser l’innovation, une main-mise trop forte des telcos sur le réseau a plutôt tendance à étouffer celle-ci.

Au passage, on comprend pourquoi les informaticiens ont horreur qu’on qualifie Internet de “réseau de télécommunications”. Beurk.

Quel rapport avec la neutralité ?

La neutralité c’est (entre autres) l’acheminement des contenus sans discrimination.

Évidemment, la gestion de réseau et de qualité de service en sont l’antithèse directe.

En donnant un levier d’action supplémentaire à l’opérateur, ils lui permettent de faire pression ici ou là pour monétiser au mieux son réseau. Il a financièrement explicitement intérêt à entretenir la pénurie. Autrement dit, tout le contraire de ce qu’il faudrait pour développer le débit et les performances intrinsèques du réseau.

Or la volonté politique actuelle, en France comme en Europe, est d’aider les opérateurs de télécommunications à se constituer des trésors de guerre, pour favoriser la constitution de “champion” européens. Mais le leur permettre via la mise en œuvre d’offres “différenciées” où le marché “ferait le reste” (magique, non ?) risque tout simplement d’aboutir à jeter le bébé avec l’eau du bain, les opérateurs n’ayant jusqu’à présent et sur les 30 dernières années jamais démontré autre chose que leur talent à préserver leurs propres intérêts au détriment dudit marché (je n’entre pas dans les détails ici mais les exemples abondent, de la constitution d’oligopoles à la limite de l’entente sur les prix, en passant par les réactions à la 4e licence ou le déploiement de VDSL2, jusqu’aux contrats violant la neutralité en interdisant explicitement l’utilisation de Skype).

Que les opérateurs fassent du lobbying pour défendre leurs intérêts bien compris, c’est logique. Que les politiques leur donnent aveuglément certaines clés d’Internet sous prétexte d’en faire une vache à lait, ça l’est beaucoup moins.

Et lorsqu’on balaye ces objections d’un revers de la main en nous assurant que cela va développer l’innovation et faire baisser les prix ou augmenter les débits, j’ai beaucoup de mal à y croire, puisque le passé montre que c’est exactement le contraire qui risque de se produire.