Category Archives: neutralité

Censure sans juge d’Internet et délit d’opinion

Vous avez peut-être (mais sans doute pas) entendu parler des lois LOPPSI et Terrorisme (cette dernière votée fin 2014) et de leur décret d’application (sorti en début d’année 2015).

Ces lois permettent à la police, sans intervention d’un juge et sans aucune transparence, de bloquer, avec l’aide de certains fournisseurs d’accès (pour l’instant, seuls les 4 plus gros en France, à savoir Orange, Free, SFR et Bouygues) un site Internet faisant l’apologie du terrorisme.

Pour ne pas accabler le gouvernement, il faut savoir que le PS a combattu le blocage sans juge avec succès lorsqu’il était dans l’opposition, pendant le mandat Sarkozy, avant de le voter quasi unanimement en 2014, avec l’aide du PCF (qui voulait en fait voter contre mais ne s’en est aperçu qu’après).

Le blocage, techniquement parlant, est un blocage DNS, mais cela n’a guère d’importance ici.

Le premier site dont quelqu’un (un journaliste spécialiste du djihadisme, David Thomson) constate publiquement le blocage — puisque tout cela côté administration se fait dans l’opacité la plus totale — est islamic-news.info. C’est un site dont, personnellement, je n’avais jamais entendu parler jusqu’à ce jour. Si vous cliquez sur ce lien, vous allez vous retrouver :

  • ou bien sur une page d’avertissement du ministère de l’Intérieur, si votre FAI est l’un des quatre susnommés et que vous utilisez leurs serveurs DNS ;
  • ou sinon sur rien du tout, le site en question (chez un hébergeur français) ayant été manifestement coupé (on ne sait pas par qui).

Théoriquement, le principe de subsidiarité veut que l’hébergeur ait 24 heures pour couper le site incriminé ; le blocage DNS n’étant supposé être activé qu’à l’issue de ce délai et en l’absence de coupure par l’hébergeur ou l’éditeur. En fait, le blocage DNS n’était théoriquement destiné qu’à censurer sur le territoire français, les sites étrangers, non soumis à la LCEN. On voit donc que le ministère de l’Intérieur a interprété au sens large la loi qui a été votée en l’appliquant à un site hébergé en France.

Les deux blocages ayant été mis en place, rien ne dit que ce délai a été respecté (mais rien ne dit non plus le contraire), en raison de l’opacité des procédures. [mise à jour 16/3/2015] En fait, l’hébergeur affirme ne pas avoir été notifié au préalable. “Pq personne ne nous a notifié LCEN pour fermer le site ? J’apprends ce matin qu’il a été bloqué par le M Intérieur !?”.

Voici la page d’accueil de la police (qui ne fonctionne que si on arrive par un lien “principal” du site bloqué, et pas par un lien interne).

police

Cela dit il est facile de voir la page d’accueil du site (hors images) car celle-ci est encore visible dans le cache Google :

cacheislamicinfo

 

Il s’agit d’un site d’actualités islamiques apparemment assez “engagé”, comme d’autres sites non moins engagés mais sur d’autres sujets, également situés en France.

Le site fait-il vraiment l’apologie du terrorisme ? Difficile à dire, on entre là dans le jugement de valeur.

Et c’est bien tout le problème.

La police a “jugé” (guillemets) que oui, ce site fait l’apologie du terrorisme. Nous sommes obligés de lui faire confiance, n’ayant ni accès à l’intégralité du site, ni la possibilité de trouver quel est le contenu incriminé précisément (cela ne me saute pas aux yeux sur la page d’accueil).

La décision de la police n’a pas à être motivée, tout juste est-elle susceptible de recours gracieux, hiérarchique puis contentieux — les nouvelles règles sur l’acceptation implicite de l’administration en l’absence de réponse de sa part dans le délai imparti ne s’appliquent pas ici, ce serait trop beau :

En l’absence de réponse de l’administration dans un délai de deux mois à compter de la date de réception de votre recours, celui-ci doit être considéré comme implicitement rejeté.

Ensuite un recours est possible auprès du tribunal administratif de Cergy-Pontoise, ce qui est rendu d’autant plus difficile que la décision à contester n’est ni publique ni motivée.

La loi suscitée permet également à la police française d’exiger le déréférencement par Google et les autres moteurs de recherche, sans aucun recours prévu en revanche de ce côté.

Nous nous retrouvons donc dans un régime où la police, sans contre pouvoir réel car avec des voies de recours extrêmement difficiles et aléatoires, peut décider de ce que nous avons le droit de voir ou pas.

Vous pensez peut-être que, pour lutter contre le terrorisme, cela est parfaitement anodin et normal, et que les services administratifs de la police n’ont de compte à rendre à personne en termes de transparence.

[Mise à jour du 17/3/2015 “Beauvau n’avait pas prévu de communiquer initialement” sur ce sujet, nous apprend un article du Monde, mais dans ce même article nous apprenons que ces sites ont été ciblés parce qu’ils “ne constituaient pas des médias stratégiques pour les services de renseignement français, qui en ont besoin pour surveiller des candidats au djihad“. Autrement dit, les sites bloqués ne sont que des sites de seconde zone pour amuser la galerie, sans souci d’efficacité autre que médiatique. ]

Sachez alors que Christiane Taubira, ministre de la justice, propose l’extension de ce blocage sans juge aux contenus antisémites et racistes — sur simple estimation opaque et non motivée de la police, là encore.

Sachez enfin qu’un député PS, Guy Delcourt, du Pas de Calais, a demandé très récemment l’extension de ce blocage aux injures envers les élus (uniquement envers les élus), sous couvert de protection de la démocratie. C’est ici, trouvé par l’œil affûté de Nextinpact :

http://questions.assemblee-nationale.fr/q14/14-75404QE.htm

 

Dans l’indifférence, pour ne pas dire l’approbation, quasi-générale,  l’état de droit continue donc de s’effriter peu à peu avec la mise en place par nos gouvernements et parlementaires de procédures d’exception, sous prétexte de protection de… l’état de droit.

[mise à jour du 18/3/2015] à lire absolument car elle donne un tout autre point de vue, la réponse de l’auteur du site islamic-news.info chez Numérama.

[mise à jour du 16/3/2015] Incidemment, on remarquera que la page Facebook de Islamic-News existe toujours : seul un blocage complet de Facebook en France serait possible, ce à quoi la police n’a pas osé procéder. Le blocage DNS va donc pousser les groupes fondamentalistes à recentrer leurs contenus sur les sites comme Facebook et Youtube, qui pratique une censure qui leur est propre.

Compléments :

[mise à jour du 16/3/2015] Il y a (au moins) 2 autres messages à d’autres adresses IP, dénichés par Stéphane Bortzmeyer.

90.85.16.50 prévue pour le “contenu illicite” en général, sans précision.

mi-illicite

90.85.16.51 pour la “pornographie enfantine”

mi-porno

[mise à jour 16/3/2015 18h20] apparemment le ministère d’Intérieur n’apprécie pas que l’on aille consulter sa page d’interdiction sans vouloir aller sur un site interdit.

miforbid

J’ai donc créé les adresses interieur0.eu.org  interieur1.eu.org interieur2.eu.org

[mise à jour du 17/3/2015 9h38] Un article d’Amaëlle Guitton indique les autres sites bloqués, qui eux sont encore accessibles si on n’utilise pas un DNS menteur : .

No tips yet.
Be the first to tip!

Like this post? Tip me with bitcoin!

1Ctax3LrjxCQ6n6ZobymGwaZNzqssGMciQ

If you enjoyed reading this post, please consider tipping me using Bitcoin. Each post gets its own unique Bitcoin address so by tipping you're also telling me what you liked, in addition to contributing to the blog hardware and electricity, and perhaps a few beers if you don't mind 🙂

Petite histoire de la neutralité d’Internet à travers les âges

Comme vous le savez sûrement, la FCC (Federal Communications Commission) des USA a voté en faveur de la neutralité d’Internet aux USA.

Aussitôt, les telcos (opérateurs) US se sont élevés pour dire, en substance, que c’était une stupidité qui allait les empêcher de facturer plus cher, de mettre en place des priorités, et “donc” — je leur laisse la responsabilité du lien de causalité supposé — d’innover [alors qu’on peut démontrer, comme je l’ai fait ici, l’inverse d’un point de vue rationnel, et a fortiori quand on regarde l’histoire du Minitel tué par Internet et la loi de Moore]

Pour expliquer à nouveau pourquoi ils disent à nouveau des bêtises, il est intéressant de revenir sur différents épisodes similaires qui ont marqué l’histoire des réseaux de données.

1969 : Arpanet 1, Telcos 0

À la fin des années 1960, lorsque les concepteurs du réseau Arpanet (prédécesseur d’Internet) ont commencé à travailler, ils sont allés voir les opérateurs de télécommunications US, ou plus précisément, L‘opérateur de télécommunications US : AT&T, pour lui demander son avis sur l’architecture prévue.

AT&T a regardé les schémas de haut, et leur a répondu en substance : “écoutez les petits amis informaticiens, vous êtes bien gentils, mais votre truc, ça ne marchera jamais. Oh, vous allez bien vous amuser et échanger quelques données entre potes, mais passé une certaine échelle, tout s’écroulera. Chez nous, pour transmettre la voix, on construit les réseaux de manière fort différente, parce que la voix, c’est compliqué. Alors votre réseau ne saura jamais transmettre la voix correctement”.

Et on crut le telco. Les concepteurs d’Arpanet ont conçu Arpanet quand même, sans trop s’inspirer des conseils du telco, et pour connecter différents sites de recherche et échanger des courriers électroniques et des fichiers, cela fonctionnait très bien.

Peu après, au début des années 70, en France, Louis Pouzin et son équipe, informaticiens eux aussi, inventaient pour leur réseau expérimental Cyclades la lettre postale du numérique : le datagramme, le paquet de données ; qui disposait d’une adresse destination, comme une lettre, et qui permettait d’envoyer les données par morceaux.

Et également pendant ce temps, en France, les chercheurs de l’opérateur national concevaient également le futur réseau de transmission de données, Transpac, conçu suivant les règles de l’art, enfin, les règles de l’art des telcos, et une norme internationale, X.25. Tout cela calqué directement sur le modèle du réseau téléphonique, mais sans notion réelle de priorité, qui n’importait pas à l’époque : Transpac n’était fait que pour transporter des données, pas la voix. La voix, c’était la seule vraie application de masse des réseaux, elle était facturée cher car volumineuse, et à l’époque la connexion d’un gros serveur Transpac avait un débit largement inférieur à celui nécessaire pour une simple communication vocale.

Cyclades se développa, Transpac se développa et rapidement il fallut choisir quel serait le réseau déployé nationalement pour être commercialisé. Que croyez vous qu’il arriva ? Transpac, soutenu par l’opérateur national et conçu suivant les règles de l’art par les spécialistes de la question, remporta la manche.

1974 : Cyclades 1, X.25 0

Pendant ce temps, aux USA, Vint Cert et ses collègues reprenaient les idées de Cyclades : le datagramme, l’adressage logique, l’interconnexion des réseaux, et j’en passe, pour inventer TCP/IP qui devait permettre à Arpanet de devenir l’Internet que nous connaissons. Les telcos se pinçaient le nez devant à peu près l’intégralité de ces idées, qui violaient sauvagement les règles de l’art établies depuis des décennies par les spécialistes de la voix.

Puis au milieu des années 80 arriva en France le Minitel, qui répondait rigoureusement aux idées des telcos pour monétiser leur activité : faire payer à la connexion, à la durée, et éventuellement au débit. Car, comprenez-vous, il fallait éviter que les gens abusent du réseau et y prennent plus que leur part. Le meilleur moyen était de facturer rigoureusement à l’usage, non ?

Et on les crut. le Minitel fut un succès.

1980s : Internet 1, X.25 0

Pendant ce temps, Internet suivait le modèle des rigolos universitaires et chercheurs, qui n’étaient là que pour avoir un réseau qui marche entre eux et au moindre coût, et qui n’avaient pas les moyens de se payer X.25, équipements plus lourds, facturation plus chère, modèle moins souple.

Internet se développa d’abord aux US, puis commença à la fin des années 80 à conquérir le monde de la recherche, notamment en Europe, et finit rapidement par se trouver ici ou là nez à nez avec X.25, et lui fut largement préféré par ceux qui avaient le choix, parce qu’ils n’y connaissaient rien, les pauvres.

Quelques opérateurs Internet français ou européens, les données étant encore chères à l’époque, décidèrent d’appliquer un modèle de facturation inspiré du Minitel (qui avait pourtant amorcé son repli) pour répartir équitablement les coûts et éviter les abus, et moururent très rapidement face à ceux qui fournissaient des offres au forfait.

Voyant qu’Internet devenait de plus en plus fort, les opérateurs de télécoms n’étaient pas en reste. Ils avaient depuis la fin des années 80 travaillé sur les protocoles du futur, et en particulier l’ATM, asynchronous transfer mode. L’ATM était le réseau de données du futur : il était conçu suivant les règles de l’art et permettait de garantir la qualité de service, le débit, que-sais-je, en réservant et en facturant la réservation des ressources réseau, par souci d’équité et de business model sonnant et trébuchant.

Vous comprenez, il fallait bien que les telcos aient une motivation pour développer le réseau ! ATM était le vrai réseau des professionnels, permettrait de transporter correctement de la voix, de la vidéo, et toutes ces choses qu’Internet était totalement incapable de fournir sérieusement à grande échelle et internationalement, soyons sérieux.

Au milieu-fin des années 90, ATM était prêt et, c’était sûr selon les telcos, allait remplacer Internet dans le développement naturel des réseaux de données.

1990s : Internet 1, ATM 0

Curieusement, cela ne marcha pas : ATM était techniquement trop cher en matériel comme en utilisation, n’arriva jamais à se développer pour les communications internationales où il s’annonçait encore plus onéreux voire impossible à faire fonctionner avec les garanties luxueuses annoncées, et là encore Internet lui était quasi systématiquement préféré par les gens qui avaient le choix. L’histoire de X.25 avait tendance à bégayer.

ATM se retrouva cantonné aux département de recherche des spécialistes en télécom, et Internet devint le réseau international sérieux, c’est à dire exactement l’inverse de ce que les telcos avaient soigneusement planifié. Ceux-ci, pour éviter de se faire mettre au placard dans les 5 ans suivants, rachetèrent massivement les petits opérateurs Internet de l’époque, ou changèrent leur fusil d’épaule.

Donc nous sommes en 2015, où après 4 échecs sanglants du modèle telco des vrais spécialistes, les vrais spécialistes reviennent nous expliquer que la neutralité d’Internet, ce n’est pas bien sérieux et ça va empêcher le réseau de se développer pour faire des vraies choses dont nous allons avoir besoin très bientôt.

Alors… vous les croyez encore, vous ?

No tips yet.
Be the first to tip!

Like this post? Tip me with bitcoin!

1KMNBXofZGAMNuzpBtKXJ3RbfhP87yJjze

If you enjoyed reading this post, please consider tipping me using Bitcoin. Each post gets its own unique Bitcoin address so by tipping you're also telling me what you liked, in addition to contributing to the blog hardware and electricity, and perhaps a few beers if you don't mind 🙂

Qualité de service et neutralité d’Internet

Je pose ici cette explication issue de réflexions personnelles suite à ma participation à une table ronde sur la neutralité au Forum sur la Gouvernance d’Internet 2014 — invité par l’AFNIC —, et en réaction plus générale à certains arguments d’opérateurs vis à vis de la neutralité d’Internet.

Désolé, il n’y a pas d’introduction sur ce qu’est la neutralité, en soi c’est déjà un long débat, mais le petit sketch ci-dessous de John Oliver permet de se mettre rapidement à niveau si vous comprenez l’anglais, sachant que la situation en Europe est beaucoup plus nuancée (pas de monopole, pas encore de législation anti-neutralité) mais que les telcos (opérateurs de télécommunications) n’y sont pas moins actifs en matière de lobbying.

On se reportera également au site de la Quadrature du Net et à un billet très complet de Stéphane Bortzmeyer ; mais ce dernier passe trop rapidement à mon goût sur un point technique particulièrement révélateur, sur lequel je voulais revenir.

La qualité de service, c’est quoi ?

La qualité de service (souvent abrégée QoS pour Quality of Service), c’est en vrac :

  • un terme marketing, pour dire que c’est drôlement mieux avec que sans, et que (donc ?) ça se paye ;
  • une façon de promettre, et parfois même de garantir, des temps de réponse les meilleurs possibles ;
  • des mesures techniques bien précises en matière de réseau.

Tout cela est relié, bien sûr. L’utilisation indifférenciée du terme permet souvent de faire passer des vessies pour des lanternes.

Je ne vais donc m’intéresser qu’au dernier point, car, pour avoir déjà géré un grand réseau interne avec mesures de qualité de service (qui se sont avérées largement superflues), j’ai vite vu que ce que l’on nous vend est un peu moins sexy que ce que l’on nous promet.

La qualité de service en réseau, c’est quoi ?

La qualité de service recouvre des mesures techniques variées. Il y en a deux qui m’intéressent ici, les principales :

  • le shaping ou mise en forme du trafic
  • la priorisation, ou ordonnancement

La qualité de service consiste à traiter différemment des trafics de nature différente (on parle de classes de trafic), afin d’« optimiser » l’utilisation du réseau.

Dans le premier cas, shaping, il s’agit de donner à une certaine classe des limites en termes de débit réel consommé. Autrement dit, plutôt que laisser le trafic correspondant s’écouler naturellement et utiliser l’espace disponible, on va le limiter artificiellement en dessous de la capacité réelle.

Dans le second cas, priorisation, il s’agit, exactement comme avec les cartes coupe-file au cinéma, de traiter le trafic sortant non plus dans l’ordre d’arrivée, mais en faisant passer les paquets prioritaires en premier.

Dans un cas comme dans l’autre, aucun trafic n’est accéléré, et aucun réseau n’est en fait optimisé : au final c’est en effet strictement le même trafic qui est transporté, dans un temps identique (en l’absence de shaping) ou supérieur (si le shaping est là pour ralentir certaines classes de trafic).

Mieux : une file prioritaire, comme au cinéma ou sur la route, n’a d’intérêt que si les autres files sont congestionnées. Sinon, tout le monde passe à vitesse normale.

Et les deux mesures vont très bien ensemble, car le shaping est la création forcée d’une attente, donc d’une file.

On remarquera aussi qu’à aucun moment la QoS ne fait fonctionner le réseau plus rapidement. Pourtant, c’est ce que l’on est tenté de croire, avec des termes si chatoyants.

Sur un réseau utilisé en dessous de sa capacité, il n’y a aucune attente. Donc, la QoS par priorisation est invendable : elle n’apporte rien, pourquoi payer plus cher ?

Pour que la QoS soit vendable, il faut donc conserver le réseau dans un état à la limite de la saturation.

Mais que nous disent les opérateurs pour justifier l’abandon de la neutralité ? “La gestion de trafic et la facturation de la QoS permettront de motiver les opérateurs à financer l’investissement dans la capacité du réseau.”

Eh bien non, la réalité est exactement contraire. Le but est de passer d’un marché d’abondance (on appelle ça “un marché de la demande”) à un marché de la pénurie (un “marché de l’offre” en termes polis, je cite la Fédération Française des Télécoms).

Pour une autre démonstration dans une situation plus ancienne mais similaire, voir aussi mon billet sur le Minitel vs Internet.

No tips yet.
Be the first to tip!

Like this post? Tip me with bitcoin!

1GqySn3wbWcX5rDN54RzKxfuJ3HGtnTJcW

If you enjoyed reading this post, please consider tipping me using Bitcoin. Each post gets its own unique Bitcoin address so by tipping you're also telling me what you liked, in addition to contributing to the blog hardware and electricity, and perhaps a few beers if you don't mind 🙂

De la pénurie gérée du Minitel à l’abondante neutralité d’Internet

Fatigué d’entendre que le Minitel était une belle réussite française (ce qu’il fut tout de même un peu), j’ai voulu écrire ce petit billet sur ce que j’en pensais. Et je me suis rappelé qu’on pouvait en tirer certains enseignements sur l’Internet d’aujourd’hui et certaines évolutions demandées par les opérateurs de télécommunications (aussi parfois appelés telcos).

Le Minitel

Derrière le Minitel, pure invention d’opérateur de télécommunications, se cachaient 2 éléments techniques :

  • le réseau Transpac (nom commercial du service X.25 France Télécom), le réseau de transmission de données sous-jacent
  • le réseau Télétel (frontaux “vidéotex” et points d’accès PAVI).

La tarification au volume : Transpac

Un site connecté à Transpac payait :

  • au débit physique binaire de la connexion (ici, 48 Kbps étaient considérés une connexion “haut débit”)
  • à la capacité en nombre de circuits virtuels (connexions clients) pouvant être établis simultanément
  • au nombre de circuits virtuels effectivement établis
  • au volume de données échangées (nombre d’octets émis ou reçus)

Et j’en oublie probablement. Logique ? Logique. Comptablement.

Dans Transpac, l’innovation tarifaire principale par rapport aux transmissions de données sur réseau téléphonique classique était un coût indépendant de la distance (en France) et de la durée de communication. Hors de cela, Transpac permettait comme Internet, et à la différence du réseau téléphonique, d’établir des liaisons avec plusieurs sites distants simultanément, mais c’est un détail ici.

Mais Transpac se trouvait sur un créneau intermédiaire bâtard : beaucoup plus onéreux que le réseau téléphonique pour les petites quantités de données, et beaucoup plus onéreux que les liaisons numériques fixes au forfait pour les grandes quantités de données. Restait l’intérêt des services accessibles, mais à l’époque ils étaient extrêmement peu nombreux.

En somme, un réseau mutualisé sans les avantages théoriques d’un réseau mutualisé, autrement dit une mutualisation qui profitait surtout à l’opérateur (c’est presque normal, c’est son métier).

La tarification à la durée : le Minitel

La première motivation du Minitel était simple : remplacer le coûteux annuaire papier et le service de renseignements téléphoniques par un service en ligne. Donnant accès à un annuaire national à jour, plus rapide et plus pratique.

En toute logique, le Minitel était également une application rêvée pour développer le trafic sur le réseau Transpac et réaliser ainsi des économies d’échelle.

Cerise sur le gâteau pour remplir le tiroir caisse, France Télécom eût l’idée du système de “Kiosque” électronique : des services facturés à la durée de connexion. C’était simple à comprendre pour l’abonné au téléphone de l’époque, bien plus simple que d’abscons volumes de données.

Le système prit le nom de “Kiosque” parce que la presse française, après ses habituels cris d’orfraie devant chaque innovation technologique risquant de mettre en péril la vente d’encre sur arbres morts, avait exigé que le système soit verrouillé à son profit, histoire d’éviter que la liberté d’expression profite un peu trop aux autres. Il fallait donc posséder un numéro de commission paritaire de la presse pour ouvrir un service Minitel, petit écueil bureaucratique qu’il était facile de contourner.

Il existait différents services et tarifications :

  • le 11, annuaire électronique, gratuit les 2 premières minutes, le service le plus utilisé
  • le 3615 (initialement 36 15 91 77), le service “monétisé” : 98 centimes/minute payés par l’appelant, une partie reversée par France Télécom au site accédé.
  • le 3614 (36 14 91 66) : accès payé par l’appelant, rien n’était reversé au site accédé
  • le 3613 (36 13 91 55) : accès payé par le site accédé
  • ensuite, plus récemment, une kyrielle de numéros typer 3617, 3618, etc à la tarification plus élevée pour des services “professionnels”.

Très bien tout ça. Dans une logique monopolistique, fermée où le temps ne s’écoule pas (donc où la loi de Moore n’a pas cours).

Et pour un jeune geek, il faut reconnaître que c’était un moyen économique et idéal de découvrir le monde merveilleux des communications de données.

Mais…

Et l’évolution des services ?

On pourrait dire l'”innovation” mais ce mot est tellement galvaudé aujourd’hui qu’il ne veut plus rien dire. Avec le Minitel, réseau cloisonné géré de bout en bout par France Télécom, ce dernier était seul en mesure de mettre en œuvre des évolutions techniques. Venant de tiers, il ne pouvait s’agir que d’innovation de services.

Alors qu’il était économiquement raisonnable pour une tierce partie, même aux moyens limités, de réaliser l’indexation d’Internet, comme l’ont montré les premiers annuaires et moteurs de recherche dès le milieu des années 1990, l’équivalent sur Minitel était quasiment impossible en raison du système de tarification. Seul l’opérateur aurait pu réaliser une indexation, à condition d’inventer de nouvelles conditions tarifaires et techniques hors du cadre initial.

C’est du côté du 11 qu’eurent lieu des initiatives intéressantes. La gratuité des 2 premières minutes d’accès permit l’éclosion de services d’indexation revendant les informations glanées sous forme d’annuaires inversés. Sans que cela profite le moins du monde à France Télécom (moult procès s’ensuivirent — autant de perdu pour l’innovation).

Le Minitel était donc de fait coincé dans un système de services télématiques cloisonnés les uns des autres. Cela marcha plutôt bien pendant une bonne dizaine d’années.

Et l’évolution des débits ?

Le système de paiement à la durée a également, en toute logique, débouché sur nombre d’abus : prime explicite à la lenteur, il n’incitait pas à améliorer les performances des services. Mieux, certains services (les services de téléchargement de logiciel, en particulier) inséraient explicitement des délais bidon dans l’affichage des pages afin de pouvoir engranger un revenu minimal prévu à l’avance. Cette attente artificielle hors de toute logique technique commençait à démontrer les limites du modèle de facturation à la durée…

Autre écueil : la facturation à la durée avec reversement ne poussait pas à l’évolution technologique « naturelle ».

Entre 1984 et 1994, alors que le débit des modems progressait d’un facteur 12 à peu près (de 1200 à 14400 bps) et n’avait pas fini de croître, le Minitel restait désespérément coincé à 1200 bps. D’une part, personne dans les bénéficiaires de la manne n’avait intérêt qu’il en soit autrement vu le système de facturation, d’autre part, il fallait bien amortir au maximum les investissements réalisés par France Télécom dans les terminaux.

En 10 ans le débit fétiche du Minitel était passé de “dernier cri” à “totalement dépassé”.

Il y eut quand même vers le milieu des années 1990 une tentative pour déployer des Minitels “accélérés” permettant d’accéder plus vite à la même chose, pour plus cher bien sûr. Mais quel est l’intérêt d’accéder plus vite à un service où le temps de connexion dépend principalement de la rapidité à peu près invariable de l’utiisateur ?

Mais c’était de toute façon trop tard : les services phares du Minitel (annuaire, SNCF, banques) étaient déjà accessibles sur Internet, sans facturation à la durée, avec un bien meilleur confort.

Alors ?

Il n’y a aucun doute, quoi qu’il en soit et indépendamment du système de facturation, que le Minitel aurait tôt ou tard été laminé par Internet.

Mais l’expérience du Minitel démontre au moins quatre choses (en fait trois, les deux premières n’étant que la contraposée l’une de l’autre) :

  • les telcos raisonnent et travaillent dans une logique de pénurie. On appelle cela un réseau de télécommunications : facturer aussi cher que possible le service le plus réduit possible, rentabiliser au maximum les investissements (c’est à dire : retarder aussi longtemps que possible les augmentations en capacité). Le discours sur les “services gérés”, la “qualité de service”, la “différenciation” est pour l’essentiel un synonyme de “pénurie organisée et monétisée”. Vendre de la priorité implique un réseau en limite de capacité, donc faiblement dimensionné, de la même manière que les cartes “coupe file” au cinéma n’ont d’intérêt que lorsqu’on passe du temps à attendre.
  • par contraste, Internet fonctionne “naturellement” dans une logique d’abondance, le réseau informatique : le plus simple possible, le plus rapide possible, le plus fiable à coût aussi réduit que possible (best effort), en profitant de toute évolution technologique dès qu’elle est abordable. Alors que les telcos nous expliquent doctement depuis 30 ans que “ça ne peut pas marcher sur le long terme, vérité des coûts, rentabilisation, etc” (et qu’allons nous faire quand nous voudrons passer de la voix ? De la vidéo ? Ah tiens, ça marche…), le modèle Internet s’est révélé plus durable que l’ensemble des modèles alternatifs tentés par les telcos pendant la même période, et les a même sévèrement laminés les uns après les autres. Dernier exemple en date : l’IP mobile qui n’a décollé et dont les coûts n’ont baissé que suite à l’arrivée massive de smartphones gloutons.
  • le modèle de facturation/reversement a une importance capitale sur les équilibres à long terme. Particulièrement en France où les chapelles établies feront tout pour limiter les évolutions qui leur seraient défavorables. La facturation variable sous prétexte de “vérité des coûts” s’est avérée contre-productive à répétition depuis 30 ans.
  • loin de favoriser l’innovation, une main-mise trop forte des telcos sur le réseau a plutôt tendance à étouffer celle-ci.

Au passage, on comprend pourquoi les informaticiens ont horreur qu’on qualifie Internet de “réseau de télécommunications”. Beurk.

Quel rapport avec la neutralité ?

La neutralité c’est (entre autres) l’acheminement des contenus sans discrimination.

Évidemment, la gestion de réseau et de qualité de service en sont l’antithèse directe.

En donnant un levier d’action supplémentaire à l’opérateur, ils lui permettent de faire pression ici ou là pour monétiser au mieux son réseau. Il a financièrement explicitement intérêt à entretenir la pénurie. Autrement dit, tout le contraire de ce qu’il faudrait pour développer le débit et les performances intrinsèques du réseau.

Or la volonté politique actuelle, en France comme en Europe, est d’aider les opérateurs de télécommunications à se constituer des trésors de guerre, pour favoriser la constitution de “champion” européens. Mais le leur permettre via la mise en œuvre d’offres “différenciées” où le marché “ferait le reste” (magique, non ?) risque tout simplement d’aboutir à jeter le bébé avec l’eau du bain, les opérateurs n’ayant jusqu’à présent et sur les 30 dernières années jamais démontré autre chose que leur talent à préserver leurs propres intérêts au détriment dudit marché (je n’entre pas dans les détails ici mais les exemples abondent, de la constitution d’oligopoles à la limite de l’entente sur les prix, en passant par les réactions à la 4e licence ou le déploiement de VDSL2, jusqu’aux contrats violant la neutralité en interdisant explicitement l’utilisation de Skype).

Que les opérateurs fassent du lobbying pour défendre leurs intérêts bien compris, c’est logique. Que les politiques leur donnent aveuglément certaines clés d’Internet sous prétexte d’en faire une vache à lait, ça l’est beaucoup moins.

Et lorsqu’on balaye ces objections d’un revers de la main en nous assurant que cela va développer l’innovation et faire baisser les prix ou augmenter les débits, j’ai beaucoup de mal à y croire, puisque le passé montre que c’est exactement le contraire qui risque de se produire.

 

No tips yet.
Be the first to tip!

Like this post? Tip me with bitcoin!

1JszYuZKqWvc1GYRD96iyomgADi53Xhnqh

If you enjoyed reading this post, please consider tipping me using Bitcoin. Each post gets its own unique Bitcoin address so by tipping you're also telling me what you liked, in addition to contributing to the blog hardware and electricity, and perhaps a few beers if you don't mind 🙂