Le VDSL2, ou le haut débit pour ceux qui l’ont déjà

Bon, celle là je la fais rapide, parce que je n’ai pas le temps de fignoler les références.

J’espère ne pas trop proférer d’énormités, les experts sont bienvenus pour me corriger si nécessaire dans les commentaires.

Nos fournisseurs d’accès nationaux annoncent en grande pompe le déploiement national du VDSL2 ce 1er octobre, sous le haut patronage de l’ARCEP qui a bien voulu les y autoriser (on est en France, on n’est pas là pour déployer n’importe quoi sans l’aval des autorités et la validation de France Télécom qui a encore la mainmise sur le réseau cuivre).

Le VDSL2, en gros, c’est une évolution de l’ADSL qui permet des débits plus élevés en changeant le matériel électronique à chaque extrémité, c’est à dire d’une part du côté du central téléphonique (vulgairement appelé NRA, nœud de raccordement d’abonnés) dans un équipement appelé DSLAM ; d’autre part à l’autre bout du côté de chez nous, c’est à dire dans le modem ou la box ADSL.

Le VDSL2 est présenté comme une manière économique d’accéder quasiment aux débits de la fibre optique, sans avoir à tirer pour cela de nouveaux câbles dans la voirie.

Et ce n’est pas faux, mais ce n’est pas tout à fait vrai non plus.

Car le VDSL2 n’est intéressant qu’en deçà d’une longueur de ligne de 1200 à 1500 mètres (Free place la barre à 1200 mètres). Habitant pourtant en zone très dense, en plein Paris, je suis à 1279 mètres de mon NRA. Dommage. En même temps, cela m’évitera la tentation de perdre mon temps avec cette technologie temporaire.

Autrement dit, le VDSL2 n’est intéressant (à condition d’avoir une box récente, le supportant) que pour les gens qui ont déjà de l’ADSL de très bonne qualité, profitant déjà de 15 à 20 Mbps en lien descendant. Ce sont donc, déjà, les plus privilégiés des abonnés cuivre.

En zone rurale ou moins dense, la norme est plutôt aux longueurs de ligne de 3 à 10 km. Autrement dit, les déjà moins bien connectés (qui bénéficient royalement de débits de 512 Kbps à 2 Mbps)  le resteront tant qu’ils n’auront pas la fibre.

En revanche, on peut établir des petits locaux de répartition intermédiaires, reliés généralement au NRA par une fibre optique, et qui permettent de réduire la longueur du cuivre jusqu’à l’abonné final, afin de profiter au mieux des progrès du VDSL2. Cette petite contrainte fait partie quasi-intégrante de la technologie. Mais cela réclame des travaux et donc, à l’heure actuelle, le VDSL2 qui est testé depuis près d’un an n’est pas déployé de cette façon.

De mon côté j’attends, donc, toujours la fin de pose de la fibre chez moi, le seul vrai support de transmission d’avenir.

Voilà.

Mise à jour : un article sur ZDNet beaucoup plus détaillé montrant que les locaux de répartition ne sont même pas possibles en France.

Bad idea: Gmail now discriminates against mail servers without an IPv6 reverse

This new gem is from the SMTP Gmail FAQ at https://support.google.com/mail/answer/81126?hl=en

(Fun note: they call it the “Bulk Senders Guidelines”… hence apparently anyone running their own personal mail server falls in that category…)

“Additional guidelines for IPv6

 

  • The sending IP must have a PTR record (i.e., a reverse DNS of the sending IP) and it should match the IP obtained via the forward DNS resolution of the hostname specified in the PTR record. Otherwise, mail will be marked as spam or possibly rejected.
  • The sending domain should pass either SPF check or DKIM check. Otherwise, mail might be marked as spam.”

I happen to be running my own mail server, and I happen to also be IPv6-connected, and finally I happen to be lacking a reverse DNS delegation for IPv6 because my ISP (Free) didn’t yet bother providing me with one.

I’m happier than most as my mail is sent through the eu.org server, which happens to get its mail accepted by Gmail. But it ends up tagged as “spam”.

I’m not the only one in France. OVH is reported as having the same problem.

So what are my points?

  • obviously, my ISP should provide me with a correctly delegated IPv6 reverse… at some point, of course the sooner would be the better.
  • but, as has been determined for over 15 years now with IPv4, refusing mail based on a lacking reverse delegation is counter-productive… since spammers statistically tend to send spam from hosts with a reverse more often than legitimate users!
  • so measures like the above end up bothering legitimate users more than spammers.

So I hope Google will step back on this one, whether or not the reverse problem gets fixed.

 

 

 

FTTH à Paris : enfin le vertical ?

(suite du feuilleton de l’été, épisode précédent ici)

Petite mise à jour, impromptu en plein milieu de l’été, ce 5 août, je reçois un coup de fil de l’installateur du réseau vertical pour SFR, qui propose un rendez-vous demain.

L’intervention consistera à installer tout ce qui est derrière le point de mutualisation (PM) : le vertical mais aussi le raccordement (horizontal) du PM vers les deux cages d’escalier. Cela ne prendra qu’une journée. Il faudra compléter cette installation par le branchement horizontal de l’arrivée de la fibre SFR, qui aura lieu aux alentours de la rentrée scolaire.

FTTH à Paris, quand la balle traîne encore dans le camp du syndic

(suite de FTTH en France, saison 6 : du rififi chez le syndic, relance du dossier et repérage v2)

Rapide mise à jour estivale.

Après repérage le 25 juin, et un délai annoncé d’au moins 3 semaines, l’opérateur a fait son boulot : le 11 juillet, soit après seulement 2 semaines 1/2,  il envoyait au syndic l’avant-projet détaillé (ADP) pour accord. L’accusé de réception est revenu à l’opérateur le 15 juillet.

Pourtant, le syndic, contacté, n’a trouvé aujourd’hui 22 juillet aucune trace dudit dossier, et j’ai dû expliquer la différence entre ceci et la convention de pose, puisqu’il faisait la confusion. On sent que mon syndic (et il ne doit pas être le seul) n’a guère l’expérience des procédures de pose de fibre optique.

Heureusement, il semblerait que l’opérateur, pas stupide, considère l’absence de réponse au bout de 15 jours comme un accord tacite.

De la pénurie gérée du Minitel à l’abondante neutralité d’Internet

Fatigué d’entendre que le Minitel était une belle réussite française (ce qu’il fut tout de même un peu), j’ai voulu écrire ce petit billet sur ce que j’en pensais. Et je me suis rappelé qu’on pouvait en tirer certains enseignements sur l’Internet d’aujourd’hui et certaines évolutions demandées par les opérateurs de télécommunications (aussi parfois appelés telcos).

Le Minitel

Derrière le Minitel, pure invention d’opérateur de télécommunications, se cachaient 2 éléments techniques :

  • le réseau Transpac (nom commercial du service X.25 France Télécom), le réseau de transmission de données sous-jacent
  • le réseau Télétel (frontaux “vidéotex” et points d’accès PAVI).

La tarification au volume : Transpac

Un site connecté à Transpac payait :

  • au débit physique binaire de la connexion (ici, 48 Kbps étaient considérés une connexion “haut débit”)
  • à la capacité en nombre de circuits virtuels (connexions clients) pouvant être établis simultanément
  • au nombre de circuits virtuels effectivement établis
  • au volume de données échangées (nombre d’octets émis ou reçus)

Et j’en oublie probablement. Logique ? Logique. Comptablement.

Dans Transpac, l’innovation tarifaire principale par rapport aux transmissions de données sur réseau téléphonique classique était un coût indépendant de la distance (en France) et de la durée de communication. Hors de cela, Transpac permettait comme Internet, et à la différence du réseau téléphonique, d’établir des liaisons avec plusieurs sites distants simultanément, mais c’est un détail ici.

Mais Transpac se trouvait sur un créneau intermédiaire bâtard : beaucoup plus onéreux que le réseau téléphonique pour les petites quantités de données, et beaucoup plus onéreux que les liaisons numériques fixes au forfait pour les grandes quantités de données. Restait l’intérêt des services accessibles, mais à l’époque ils étaient extrêmement peu nombreux.

En somme, un réseau mutualisé sans les avantages théoriques d’un réseau mutualisé, autrement dit une mutualisation qui profitait surtout à l’opérateur (c’est presque normal, c’est son métier).

La tarification à la durée : le Minitel

La première motivation du Minitel était simple : remplacer le coûteux annuaire papier et le service de renseignements téléphoniques par un service en ligne. Donnant accès à un annuaire national à jour, plus rapide et plus pratique.

En toute logique, le Minitel était également une application rêvée pour développer le trafic sur le réseau Transpac et réaliser ainsi des économies d’échelle.

Cerise sur le gâteau pour remplir le tiroir caisse, France Télécom eût l’idée du système de “Kiosque” électronique : des services facturés à la durée de connexion. C’était simple à comprendre pour l’abonné au téléphone de l’époque, bien plus simple que d’abscons volumes de données.

Le système prit le nom de “Kiosque” parce que la presse française, après ses habituels cris d’orfraie devant chaque innovation technologique risquant de mettre en péril la vente d’encre sur arbres morts, avait exigé que le système soit verrouillé à son profit, histoire d’éviter que la liberté d’expression profite un peu trop aux autres. Il fallait donc posséder un numéro de commission paritaire de la presse pour ouvrir un service Minitel, petit écueil bureaucratique qu’il était facile de contourner.

Il existait différents services et tarifications :

  • le 11, annuaire électronique, gratuit les 2 premières minutes, le service le plus utilisé
  • le 3615 (initialement 36 15 91 77), le service “monétisé” : 98 centimes/minute payés par l’appelant, une partie reversée par France Télécom au site accédé.
  • le 3614 (36 14 91 66) : accès payé par l’appelant, rien n’était reversé au site accédé
  • le 3613 (36 13 91 55) : accès payé par le site accédé
  • ensuite, plus récemment, une kyrielle de numéros typer 3617, 3618, etc à la tarification plus élevée pour des services “professionnels”.

Très bien tout ça. Dans une logique monopolistique, fermée où le temps ne s’écoule pas (donc où la loi de Moore n’a pas cours).

Et pour un jeune geek, il faut reconnaître que c’était un moyen économique et idéal de découvrir le monde merveilleux des communications de données.

Mais…

Et l’évolution des services ?

On pourrait dire l'”innovation” mais ce mot est tellement galvaudé aujourd’hui qu’il ne veut plus rien dire. Avec le Minitel, réseau cloisonné géré de bout en bout par France Télécom, ce dernier était seul en mesure de mettre en œuvre des évolutions techniques. Venant de tiers, il ne pouvait s’agir que d’innovation de services.

Alors qu’il était économiquement raisonnable pour une tierce partie, même aux moyens limités, de réaliser l’indexation d’Internet, comme l’ont montré les premiers annuaires et moteurs de recherche dès le milieu des années 1990, l’équivalent sur Minitel était quasiment impossible en raison du système de tarification. Seul l’opérateur aurait pu réaliser une indexation, à condition d’inventer de nouvelles conditions tarifaires et techniques hors du cadre initial.

C’est du côté du 11 qu’eurent lieu des initiatives intéressantes. La gratuité des 2 premières minutes d’accès permit l’éclosion de services d’indexation revendant les informations glanées sous forme d’annuaires inversés. Sans que cela profite le moins du monde à France Télécom (moult procès s’ensuivirent — autant de perdu pour l’innovation).

Le Minitel était donc de fait coincé dans un système de services télématiques cloisonnés les uns des autres. Cela marcha plutôt bien pendant une bonne dizaine d’années.

Et l’évolution des débits ?

Le système de paiement à la durée a également, en toute logique, débouché sur nombre d’abus : prime explicite à la lenteur, il n’incitait pas à améliorer les performances des services. Mieux, certains services (les services de téléchargement de logiciel, en particulier) inséraient explicitement des délais bidon dans l’affichage des pages afin de pouvoir engranger un revenu minimal prévu à l’avance. Cette attente artificielle hors de toute logique technique commençait à démontrer les limites du modèle de facturation à la durée…

Autre écueil : la facturation à la durée avec reversement ne poussait pas à l’évolution technologique « naturelle ».

Entre 1984 et 1994, alors que le débit des modems progressait d’un facteur 12 à peu près (de 1200 à 14400 bps) et n’avait pas fini de croître, le Minitel restait désespérément coincé à 1200 bps. D’une part, personne dans les bénéficiaires de la manne n’avait intérêt qu’il en soit autrement vu le système de facturation, d’autre part, il fallait bien amortir au maximum les investissements réalisés par France Télécom dans les terminaux.

En 10 ans le débit fétiche du Minitel était passé de “dernier cri” à “totalement dépassé”.

Il y eut quand même vers le milieu des années 1990 une tentative pour déployer des Minitels “accélérés” permettant d’accéder plus vite à la même chose, pour plus cher bien sûr. Mais quel est l’intérêt d’accéder plus vite à un service où le temps de connexion dépend principalement de la rapidité à peu près invariable de l’utiisateur ?

Mais c’était de toute façon trop tard : les services phares du Minitel (annuaire, SNCF, banques) étaient déjà accessibles sur Internet, sans facturation à la durée, avec un bien meilleur confort.

Alors ?

Il n’y a aucun doute, quoi qu’il en soit et indépendamment du système de facturation, que le Minitel aurait tôt ou tard été laminé par Internet.

Mais l’expérience du Minitel démontre au moins quatre choses (en fait trois, les deux premières n’étant que la contraposée l’une de l’autre) :

  • les telcos raisonnent et travaillent dans une logique de pénurie. On appelle cela un réseau de télécommunications : facturer aussi cher que possible le service le plus réduit possible, rentabiliser au maximum les investissements (c’est à dire : retarder aussi longtemps que possible les augmentations en capacité). Le discours sur les “services gérés”, la “qualité de service”, la “différenciation” est pour l’essentiel un synonyme de “pénurie organisée et monétisée”. Vendre de la priorité implique un réseau en limite de capacité, donc faiblement dimensionné, de la même manière que les cartes “coupe file” au cinéma n’ont d’intérêt que lorsqu’on passe du temps à attendre.
  • par contraste, Internet fonctionne “naturellement” dans une logique d’abondance, le réseau informatique : le plus simple possible, le plus rapide possible, le plus fiable à coût aussi réduit que possible (best effort), en profitant de toute évolution technologique dès qu’elle est abordable. Alors que les telcos nous expliquent doctement depuis 30 ans que “ça ne peut pas marcher sur le long terme, vérité des coûts, rentabilisation, etc” (et qu’allons nous faire quand nous voudrons passer de la voix ? De la vidéo ? Ah tiens, ça marche…), le modèle Internet s’est révélé plus durable que l’ensemble des modèles alternatifs tentés par les telcos pendant la même période, et les a même sévèrement laminés les uns après les autres. Dernier exemple en date : l’IP mobile qui n’a décollé et dont les coûts n’ont baissé que suite à l’arrivée massive de smartphones gloutons.
  • le modèle de facturation/reversement a une importance capitale sur les équilibres à long terme. Particulièrement en France où les chapelles établies feront tout pour limiter les évolutions qui leur seraient défavorables. La facturation variable sous prétexte de “vérité des coûts” s’est avérée contre-productive à répétition depuis 30 ans.
  • loin de favoriser l’innovation, une main-mise trop forte des telcos sur le réseau a plutôt tendance à étouffer celle-ci.

Au passage, on comprend pourquoi les informaticiens ont horreur qu’on qualifie Internet de “réseau de télécommunications”. Beurk.

Quel rapport avec la neutralité ?

La neutralité c’est (entre autres) l’acheminement des contenus sans discrimination.

Évidemment, la gestion de réseau et de qualité de service en sont l’antithèse directe.

En donnant un levier d’action supplémentaire à l’opérateur, ils lui permettent de faire pression ici ou là pour monétiser au mieux son réseau. Il a financièrement explicitement intérêt à entretenir la pénurie. Autrement dit, tout le contraire de ce qu’il faudrait pour développer le débit et les performances intrinsèques du réseau.

Or la volonté politique actuelle, en France comme en Europe, est d’aider les opérateurs de télécommunications à se constituer des trésors de guerre, pour favoriser la constitution de “champion” européens. Mais le leur permettre via la mise en œuvre d’offres “différenciées” où le marché “ferait le reste” (magique, non ?) risque tout simplement d’aboutir à jeter le bébé avec l’eau du bain, les opérateurs n’ayant jusqu’à présent et sur les 30 dernières années jamais démontré autre chose que leur talent à préserver leurs propres intérêts au détriment dudit marché (je n’entre pas dans les détails ici mais les exemples abondent, de la constitution d’oligopoles à la limite de l’entente sur les prix, en passant par les réactions à la 4e licence ou le déploiement de VDSL2, jusqu’aux contrats violant la neutralité en interdisant explicitement l’utilisation de Skype).

Que les opérateurs fassent du lobbying pour défendre leurs intérêts bien compris, c’est logique. Que les politiques leur donnent aveuglément certaines clés d’Internet sous prétexte d’en faire une vache à lait, ça l’est beaucoup moins.

Et lorsqu’on balaye ces objections d’un revers de la main en nous assurant que cela va développer l’innovation et faire baisser les prix ou augmenter les débits, j’ai beaucoup de mal à y croire, puisque le passé montre que c’est exactement le contraire qui risque de se produire.

 

Le “très haut débit” et la fibre, oui, c’est utile

Alors…

…que l’installation de la fibre optique avance péniblement dans l’immeuble où j’habite,

…que les critères officiels “très haut débit” (THD) ont été réduits de 50 Mb/s à 30 Mb/s pour pouvoir y faire entrer le VDSL2 et le vieux câble télévision, afin de gonfler artificiellement les statistiques de déploiement…

Je suis tombé récemment sur quelques articles de la presse spécialisée se demandant à quoi des débits de 100 à 300 Mbp/s pouvaient bien servir. Les usages ne seraient pas là, ni la demande. Ah ?

Le VDSL2 qui commence à peine à être déployé présente quelques tares (distance réduite, gain relativement faible par rapport à l’ADSL2+) mais a l’avantage de ne nécessiter que le changement de quelques circuits électroniques aux extrémités, sans toucher au câblage.

La fibre optique (le seul vrai THD) permet, par rapport au cuivre (xDSL : ADSL, VDSL…) d’améliorer 4 paramètres :

  • le débit descendant : celui dont on parle en général, présupposant que l’Internaute est là pour consommer, pas pour participer/échanger)… x6 (minimum) par rapport à l’ADSL.
  • le débit montant : celui dont on parle beaucoup moins… au moins x50 par rapport à l’ADSL et ses pauvres 1 Mb/s ;
  • la latence : de 20-25 ms (ADSL “par défaut”) ou 6-7 ms (ADSL avec option “Fastpath”)  à moins d’1 ms ;
  • la distance : alors que l’ADSL est limité à quelques kilomètres avec un débit disponible décroissant rapidement, la fibre ne subit aucune dégradation.

Les applications qui peuvent profiter de ces améliorations en découlent directement.

Il y a d’abord tout ce qui existe déjà mais qui fonctionnera mieux, beaucoup mieux :

  • lecture vidéo de meilleure qualité
  • plus de flux vidéo simultanés (alors que par ailleurs il est question de soumettre à la redevance télévisuelle tout ce qui ressemble de près ou de loin à un écran)
  • téléchargements plus rapides pour les gros fichiers : par exemple, récupération de vidéos… de vacances, ou de gros dossiers photos
  • envoi de vidéo de haute qualité, vers des sites de vidéo en ligne, ou directement des amis, sans avoir à y passer des heures, et y compris en temps réel…
  • visioconférence haute définition, voire plusieurs visios HD simultanées
  • partage d’écran d’ordinateur
  • meilleure réactivité des jeux vidéo en réseau (les gamerz sont des obsédés de la latence)

Et ensuite il y a tout ce qui reste à populariser, rendre plus facile ou inventer, par exemple :

  • visios avec plus de 2 participants
  • lecture de DVD ou Blu-ray à distance
  • publication de vidéos personnelles
  • sauvegarde hors site
  • partage de gros fichiers sans passer par un serveur tiers (protection de la vie privée)
  • développement du peer-to-peer
  • orchestre réparti, chacun chez soi
  • objets connectés émettant de gros volumes de données…
  • et évidemment, impossible de tout anticiper…

Je me souviens des discours officiels au milieu des années 1990 : « Mais à quoi ça sert Internet ? Le Minitel suffit bien ! »

Bref, avant 5 ans, l’Internet très haut débit sera jugé aussi indispensable qu”Internet aujourd’hui.

L”UE est plus volontariste (horizon 2020) que la France où la date initiale de 2025 a été ramenée à 2022, la crainte du ridicule, sans doute, ou le besoin de subventions de la part des opérateurs…

Mise à jour, certains telcos commencent à vérifier ce qui précède : À Palaiseau, le très haut débit a bouleversé les usages des internautes

 

 

FTTH en France, saison 6 : du rififi chez le syndic, relance du dossier et repérage v2

(suite de la  saison 5)

Vous vous souvenez de l’épisode précédent, où l’assemblée générale de copropriété avait voté la signature d’une convention avec un nouvel opérateur d’immeuble, SFR.

Ensuite, rien pendant près de 6 mois.

Jusqu’à ce que j”entreprenne d’appeler, le 3 juin dernier, le syndic pour m’enquérir de l’avancement du dossier.

Le responsable du suivi de l’immeuble ayant quitté le syndic, et les dossiers n’ayant pas été transmis correctement à son successeur, la convention fibre a été enterrée ou perdue, bref, oubliée jusqu’à ce que je m’en inquiète.

Après quelques jours d’attente sans nouvelle, j’ai dû passer en mode “harcèlement”, c’est à dire en gros 4 relances téléphoniques et 2 emails pour obtenir une réponse. Le syndic a fini par recontacter SFR pour récupérer un nouveau contrat, le remplir, le signer et l’envoyer.

J’ai alors pris soin de donner mon numéro de téléphone portable au syndic en lui disant que je prenais tout en charge pour les visites. Pour le dire moins diplomatiquement : faire ce qui théoriquement relève de son boulot. Curieusement, cela semble avoir accéléré les opérations. C’était bien le but.

C’est donc hier 24 juin que je reçois, impromptu, un coup de fil d’une des entreprises responsables pour SFR des visites de repérage avant pose de la fibre, qui me proposait de passer immédiatement, 20 à 30 minutes plus tard. Inutile de dire qu’après 5 ans d’attente, on fait tout pour ne pas louper un tel rendez-vous. Par chance cela tombait dans mes horaires de disponibilité.

En quoi consiste une visite de repérage ?

– passer en revue, immeuble par immeuble et étage par étage, le nombre d’appartements à desservir et l’emplacement des placards et gaines techniques (principalement courants faibles : télécoms et câble télévision) pour y poser le câblage vertical fibre et les raccordements vers les appartements, et réaliser des schémas succincts de chaque pallier : couloir, appartements, ascenseur, escalier, placards.

– repérer au sous-sol les arrivées eau, égouts et/ou France Télécom pour identifier les points d’adduction (arrivée des fibres depuis l’extérieur) existants et possibles ;

– repérer les passages de câbles existants ou à poser pour pouvoir y installer de nouveaux câbles reliant le point d’adduction choisi aux gaines techniques des différents immeubles, et en faire un schéma. Chez nous, la liaison entre les deux immeubles est possible via un parking souterrain ;

– trouver un emplacement pour la pose du “point de mutualisation” où les fibres des différents opérateurs parviennent avant de desservir les étages. Chez SFR cela se concrétise par la pose de 3 petits coffrets dans les parties communes ;

– réaliser des photographies de tous les emplacements stratégiques suscités, ainsi que des plans d’évacuation incendie des sous-sols et rez-de-chaussée qui permettent d’avoir des plans exacts et relativement détaillés ;

– consigner le tout dans un rapport écrit (incluant un état des lieux avant travaux), qui servira de document de référence aux installateurs.

Note amusante, le point d’adduction choisi par SFR est le point d’arrivée des câbles France Télécom, alors que Free avait choisi d’arriver par les égouts, dans le “local eau” de la copropriété. Le point de mutualisation ne sera donc pas posé à côté de l’arrivée fibre Free horizontale.

Toute l’opération de repérage a pris un peu plus d’une heure pour une copropriété de 34 appartements, pendant laquelle il a fallu accompagner l’intervenant pour le guider dans sa visite.

Le délai annoncé avant pose est d’environ 3 à 5 semaines.

On m’a dit qu’avec un peu de chance cela sera peut-être possible avant le 14 juillet…

Jje croise les doigts, je touche du bois, j’ai préparé les cierges et j’immole chaque soir des paquets IPv4 et IPv6 sur un bûcher de jeunes commutateurs réseau.

Sexualité, Internet et libertés

Dans la série des collisions-coq-à-l’âne dont j’ai la spécialité…

couv-sexlibris

Alors que la sénatrice EELV Esther Benbassa propose une « loi sur la liberté de l’Internet » (comprendre, en français non politique : une loi restreignant la liberté), voici un livre qui n’a en apparence rien à voir avec ce qui précède, que j’ai découvert récemment, qui m’a beaucoup plu, mais dont je n’aurais pas forcément eu l’idée de parler ici.

Il s’agit du dictionnaire « Sexe Libris » de Camille, qu’on ne présente plus (ce que je fais donc) : “personnage épicène” selon sa propre description, on pourrait aussi dire “nom de plume”, qui a fondé la rubrique Rue69 sur la sexualité à Rue89 et maintenant Sexpress sur l’Express…

Pour citer l’avant-propos de Camille : « ce dictionnaire vise à conduire les lecteurs à s’interroger sur leurs représentations autour des questions de genre et de sexualité, et à travers elles sur la société ».

C’est David Abiker, dans la préface, qui m’a donné le lien (encore un mot à sens partagé) manquant avec ce blog. Internet, d’une part, et la liberté, d’autre part :

« Partout où la sexualité est (ou a été) réprouvée, cachée, humiliée, sanctionnée, on a souffert et on souffre encore d’un recul des libertés. Partout où le sexe est en cause, où il est redouté et donc combattu comme s’il était la marque du mal, on constate une stagnation des droits de la personne. Partout où la politique a fait du sexe un ennemi, la liberté a cédé du terrain dans tous les autres domaines, à commencer par ceux des droits de l’homme et de la femme ».

Maintenant relisez ce qui précède en remplaçant « sexualité » et « sexe » par « Internet »…

Le livre est très agréable à lire, loin de l’idée rébarbative que l’on se fait d’un dictionnaire. Il s’agit d’un cocktail bien écrit, tour à tour sérieux, coquin, bizarre, drôle, alternant références légales, citations savoureuses et traits d’humour, avec un énorme travail de (coureur de ?) fond.

Toutes les entrées comportent des liens “Lire aussi”, on peut ainsi se laisser porter agréablement de sujet en sujet. Je n’ai pas vérifié si le graphe ainsi constitué était connexe.

La postface judicieusement titrée « Post coitum », sorte de making-of et bêtisier, est savoureuse… particulièrement pour l’auto-contradictoire section “je n’ai pas osé”.

Plutôt que vous citer un extrait particulier, puisque tout est bon (…), j’ai choisi de vous donner des listes d’entrées par thème, les titres vous donneront peut-être la curiosité d’aller voir l’envers du décor ;). C’est toujours bien écrit et surprenant, un style clair et concis.

Et si vous voulez des extraits, vous pouvez en consulter ici sur Amazon.com, pas sur amazon.fr assez curieusement.

(PS l’image ci-dessus est un lien direct vers Amazon.fr)

Pour geeks : Album de la Comtesse, Apple, Audiard (Michel), Censure, Chatroulette, Chocolat, CNC, Correspondance, Facebook, Google, Minitel rose, Second Life.

Pour les gourmands : Chocolat, Cuisine, Manger.

Sur les questions de censure : Apple, Censure, Despentes (Virginie), Pornographie, Origine du monde (l’).

Politique et législation : Censure, Divorce, Loi, Mariage, Parenthèse enchantée, Prostitution, Protection des mineurs.

Pour les usagers du rail (sic, mais le non-ferroviaire) : Blanc-Bleu.

Religion : Emmanuelle (Sœur), Jean-Paul II, Religion, Urbain.

Improbables ou m’ayant particulièrement étonné : Emmanuelle (Sœur), Foot, Giscard d’Estaing (Valéry), Grève, Guerre, Ousepo, Piscine.

Installation de la fibre (FTTH), suite de la saison 5

(Suite du parcours du combattant de l’abonné FTTH français en copropriété)

Les choses avancent : la nouvelle résolution d’assemblée générale a été votée le 17 décembre, donnant mandat au syndic et au conseil syndical pour signer les conventions de pose avec un opérateur d’immeuble quelconque (résolution sans nom d’opérateur afin de pouvoir continuer en cas de désistement sans avoir à attendre la prochaine AG ni une assemblée générale extraordinaire).

La convention SFR va donc être signée et envoyée incessamment.

Suite : FTTH en France, saison 6 : du rififi chez le syndic, relance du dossier et repérage v2

 

Petits meurtres de liens entre amis : la presse, le ministère et Google News

Vous avez peut-être entendu parler des demandes d’une partie de la presse française vis-à-vis de Google, ainsi motivées :

  1. Google News indexe les articles de presse
  2. Google gagne de l’argent avec ces articles
  3. La presse, en difficulté, a besoin d’argent au delà de ses aides, publicités et abonnements…
  4. donc Google doit reverser à la presse française sa part « légitime »

(par la suite pour alléger je parle de “la presse”, mais il faut savoir que le lobbying en question se limite à quelques grands journaux parisiens liés au SPQN, ne mettons donc pas tout le monde dans le même panier)

Munie de cette argumentaire, la presse a donc proposé un projet de loi au ministère de la Culture et de la Communication, pour lui demander de légiférer dès que possible, ce à quoi il a commencé à s’employer. Le projet en question n’est pas public, mais sa première version a fuité grâce à Télérama. Au moment de cette fuite, on a appris qu’il ne s’agissait que d’un document de travail déjà périmé, la version à jour étant encore aujourd’hui tenue secrète et réservée à la presse et au ministère (P. Jannet sur twitter : “il avance, mais je prefererai parler avec Google avant …“)

Nous avons néanmoins eu droit à quelques détails sur les changements, qui révèlent la stratégie des lobbyistes. J’y reviens plus loin.

Le premier problème, c’est que l’argumentaire de la presse prend l’eau littéralement dans tous les sens :

  1. Google News ne permet pas de lire les articles car il ne fournit que le titre et un début de phrase, il faut aller sur le site du journal qui a publié l’article ;
  2. Google ne gagne pas d’argent avec cette activité : il n’y a aucune publicité sur Google News ; et Google ne gagne ni plus ni moins d’argent sur son moteur de recherche habituel avec la presse qu’avec les autres types de contenus indexés ;
  3. Google fournit gratuitement ce service d’indexation et de recherche ;
  4. C’est la presse elle-même qui gagne de l’argent avec ses articles, en général en publiant sur la même page des publicités ;
  5. Mieux, Google attire des lecteurs sur les articles en question, permettant donc déjà à la presse de gagner plus d’argent qu’en l’absence d’indexation.

Bref, le ministère de la Culture a beau soutenir contre vents et marées, par construction de ses missions et par principe, les lobbyistes de la presse, il faut peut-être que l’argumentaire tienne la route, et à l’évidence ce n’est pas le cas.

La position de Google a été connue assez rapidement, et elle tombe sous le sens. Vous ne souhaitez pas que l’on vous indexe gratuitement ? Eh bien ce n’est pas grave, on va cesser de vous indexer, car nous ne souhaitons pas vous payer quoi que ce soit (cela a déjà été pratiqué avec les journaux belges dans des circonstances similaires ; ceux-ci ont tenu trois jours).

Nous avons aussitôt eu droit à quelques déclarations indignées, notamment de Laurent Joffrin du Nouvel Observateur, s’étranglant que Google ose menacer ainsi de « censure » la presse locale : non seulement Google devrait payer pour l’indexation, mais il devrait en plus en tant que service d’« ‘intérêt général » être obligé d’indexer, donc de payer. Le système parfait.

Les lobbyistes ayant vu venir la réponse de Google et sa logique implacable, l’argumentaire a été largement modifié. Je rermercie Philippe Jannet (consultant, directeur général de ePresse. fr, ex-PDG du Monde Interactif, ex-DG numérique des Echos, ex-Président du Geste) de me l’avoir signalé  dans nos discussions sur Twitter. On peut lire chez Libération son article de samedi : “Oui, Google capte la valeur créée”. Cet article, à la différence de celui de Laurent Joffrin, a la franchise de reconnaître que tout cela n’est qu’une histoire de gros sous, et rien d’autre. C’est Philippe Jannet lui-même qui insiste sur le pivot crucial, sur Twitter :  « j’ai mis moteur de recherche… Agrégateur c’est pas pareil », en réponse à quelqu’un qui lui demandait pourquoi cibler “Google” plutôt que “les agrégateurs”.

Google News ne vend pas de publicité et ne gagne donc pas d’argent ? Qu’à cela ne tienne, on va arrêter de parler de Google News et d’agrégateurs, on va maintenant parler de Google qui lui, à l’évidence, gagne beaucoup d’argent et pratique l’« optimisation » fiscale, ce qui justifie par avance une taxation, fût-elle au profit exclusif d’intérêt privés.

Le lien entre l’affichage sur Google News et la publicité vendue par Google Search est inexistant ? Aucune importance, on invente de toutes pièces une explication à base de « sémantique » de l’algorithme d’indexation, qui en extrayant automatiquement le sens des articles de la presse, permettrait à Google d’améliorer la qualité de la réponse (on ne sait pas comment), donc de générer plus de revenu (on ne sait pas comment non plus).

Mais c’est un gros mensonge car l’algorithme de Google, dont les grandes lignes sont bien connues, ne fonctionne pas du tout comme cela.

Second écueil passé sous silence au bénéfice de la rhétorique, les articles de presse n’ont pour un moteur de recherche ni plus ni moins d’intérêt que les pages « normales » du web. Mais ce fait est évidemment occulté, car il s’agit bien de demander une taxe au profit de la presse, pas une taxe générale sur les liens du web qui, pour le coup, n’aurait strictement aucune chance d’être votée, et a fortiori appliquée.

Bref, on ne sait trop comment Philippe Jannet arrive à la conclusion suivante, mais c’est celle qui l’intéresse et qui va tenir lieu de justification pour la suite du lobbying : « En clair, grâce aux contenus de la presse en ligne, Google améliore jour après jour son revenu. ».

Au total ce nouvel argumentaire ne tient en réalité pas plus la route que le précédent. Va-t-il sauver suffisamment les apparences pour convenir au ministère de la Culture ?

Mais sur le fond, le plus grave, c’est que la presse demande donc que soit établi à son bénéfice exclusif un précédent : « la mise en place d’un droit voisin » sur les liens du web. Autrement dit il y aurait les « bons » contenus bénéficiant de reversement de taxes parce qu’ils proviennent de professionnels encartés, et les « mauvais » contenus, tous les autres (on note à ce propos que la presse en ligne se bat depuis des années pour un alignement de ses droits avec ceux de la presse papier, considérée de facto comme plus « noble »). Même avec beaucoup d’optimisme, difficile d’imaginer comment cela pourrait être bénéfique pour quiconque.

Ce lundi, Eric Schmidt (président exécutif de Google) est reçu par la ministre, Aurélie Filippetti, après que le président Hollande ait déclaré dans le courant de la semaine dernière à des représentants de la presse que la loi demandée serait votée au plus tard en janvier 2013. Autrement dit, la conclusion est déjà écrite, et maintenant nous allons négocier.

 

 

 

voie libre ou appel système