Jugement Copwatch version 2

(suite des billets Au sujet de copwatchnord-idf.eu.org et Compte-rendu de l’audience Copwatch version 2)

Le jugement a comme prévu été rendu vendredi. Il a fallu attendre ce lundi pour que cette copie en soit accessible sur Internet.

Le ministère de l’Intérieur est débouté sur l’essentiel de ses demandes :

– la demande de blocage du site http://copwatchnord-idf.meta.gd/ est rejetée : il semblerait que le site soit hébergé sur une Dédibox (88.190.232.92 au moment où j’écris ces lignes) c’est-à-dire chez Free/Online qu’il est peut-être possible de couper sans mettre en branle des mesures disproportionnées de filtrage au niveau national ;

– les demandes sur les 34 autres miroirs sont rejetées par manque de preuves ;

– la demande d’étendre automatiquement le filtrage en cas de déplacement des miroirs est également rejetée. Cf l’argumentaire très intéressant en page 16 du jugement. Ce dernier point était particulièrement crucial car une demande similaire a été formulée par les ayants-droit dans l’affaire Allostreaming, non encore jugée. PCinpact fournit une analyse détaillée  de cette question.

Il est donc au final simplement demandé aux fournisseurs d’accès à Internet assignés le blocage par DNS ou IP du site http://copwatchnord-idf.eu.org/ qui ne semblent pas encore complètement en œuvre au moment où j’écris ces lignes.

L’avenir nous dira si nous aurons droit à des Copwatch v3 voire v4, v5…

Voir aussi l’analyse de Numérama.

Compte-rendu de l’audience Copwatch version 2

Aujourd’hui 7 février, à 14 heures, se tenait l’audience publique relative à la nouvelle affaire Copwatch.

Bien que n’étant pas convoqué ni assigné, j’y ai assisté.

L’audience se tenait au fin fond du palais de justice de Paris, en haut d’une tour (dite la tour d’argent, mais on n’y mange pas) au dernier étage d’un escalier en colimaçon, charpente en bois et salle glaciale.

Les six plus gros fournisseurs d’accès français (Free, Orange, SFR, Bouygues Télécom, Numéricâble, Darty Télécom) étaient assignés par le ministère de l’Intérieur et des syndicats de policiers pour demander la disparition d’un certain nombre de pages web sur le site incriminé.

L’audience a duré plus de 3 heures, en effet l’affaire n’est pas identique à l’affaire d’octobre, il ne suffit pas de décider d’une nouvelle liste de sites à filtrer. De nombreux miroirs sont apparus (plus de 30), les injures auraient été retirées, resteraient la divulgation de données personnelles qui aurait été constatée par huissier, et accessoirement la diffamation.

Une rumeur disait que les éditeurs du site Copwatch (non assignés) étaient présents dans le public. Ils ne se sont cependant pas exprimés.

Le ministère de l’Intérieur demande que les pages incriminées ne soient plus accessibles. Quitte à bloquer (surbloquer) pour cela l’ensemble du site (toutes les pages, mêmes celles qui ne sont pas litigieuses) si des mesures techniques plus précises ne sont pas possibles.

La particularité de cette assignation était la demande par le ministère de l’Intérieur d’étendre toute mesure de blocage à tout site nouveau diffusant un contenu identique à celui jugé illicite. Autrement dit, effectuer la mise à jour dans le futur du blocage du site Copwatch, sous la responsabilité des fournisseurs d’accès, sans intervention d’un juge.

Les syndicats de policiers avaient les mêmes demandes, insistant tout de même sur la bien plus grande gravité de la divulgation d’informations personnelles puisqu’elle pouvait mettre des policiers en danger.

La position des fournisseurs d’accès, du moins telle qu’elle a été exprimée et que je l’ai comprise, est assez classique :

1) le filtrage par page, qui nécessite du DPI, est trop intrusif (libertés publiques) et trop coûteux (Orange/FT a évoqué pour sa part la somme de 10M€) ;

2) restent le filtrage par adresse IP ou par le DNS. Seuls Orange et Bouygues sont en mesure de réaliser ce dernier facilement, pas Free ni SFR ; le surblocage qui en découle, bien que gênant lui aussi vis à vis des libertés publiques, est connu et assumé. L’affaire ARJEL (blocage DNS de site illégaux de jeu en ligne) a été citée. L’avocat de SFR a en outre rappelé que le blocage DNS résulte en un surblocage d’autres services, comme le courrier.

3) l’intervention d’un juge est absolument nécessaire afin de donner lieu à débat contradictoire, il est hors de question d’étendre la mesure “automatiquement” aux miroirs futurs.

4) le blocage est inefficace : le site coupé en octobre est réapparu quelques heures après (effet Streisand) et non le 25 janvier qui est la date de sa médiatisation. Les avocats des fournisseurs n’ont pas envie  de revenir tous les 2 mois pour de nouvelles interventions inutiles.

5) la seule stratégie viable pour faire disparaître les contenus incriminés est d’agir à la source. L’affaire MegaUpload a bien entendu été citée.

6) seuls 2 sites (copwatchnord-idf.eu.org et copwatchnord-idf.meta.gd) ont donné lieu à des constats d’huissier, les infractions sur les autres sites ne sont pas démontrées et il n’est donc pas possible de les bloquer.

Le ministère de l’Intérieur ne semble pas avoir poussé très loin les investigations pour identifier l’éditeur du site,  ce qui a suscité un certain étonnement chez les défendeurs comme de la part du président. C’est d’autant plus étonnant que, par sa fonction même, le ministère de l’Intérieur est le mieux placé en la matière.

Détail cocasse, l’avocat du ministère de l’Intérieur a dit être persuadé que des informations sur l’audience circulaient à l’instant même où il s’exprimait. Et en effet, nous étions plusieurs personnes à en faire un compte-rendu en temps réel sur Twitter.

Le ministère public estime que la “subsidiarité a été démontrée” pour les 2 sites “principaux” , mais pas pour tous les autres ; que les interdictions de sites sont plus graves que des interdictions de pages mais ne portent pas atteinte à la liberté d’expression puisque l’éditeur est masqué ; et enfin, que des interdictions futures automatiques sont inconcevables.

Le jugement sera rendu vendredi 10 février à 16 heures.

On notera que la possibilité de demander une coupure de domaine DNS à la source n’a absolument pas été évoquée dans les débats, ce qui sur le fond ne changerait de toute façon rien à l’efficacité des mesures prises.

Complément par PCinpact avant l’audience : http://www.pcinpact.com/news/68786-copwatch-blocage-filtrage-miroirs-futurs.htm

Compte-rendu de PCinpact : http://www.pcinpact.com/news/68797-copwatch-parquet-claude-gueant-inconcevable.htm

Le Point : http://www.lepoint.fr/societe/la-justice-une-nouvelle-fois-sommee-d-interdire-des-pages-du-site-copwatch-07-02-2012-1428434_23.php

Numerama : http://www.numerama.com/magazine/21446-pourquoi-et-comment-claude-gueant-veut-faire-refermer-copwatch.html

Bluetouff sur Reflets http://reflets.info/whos-fucking-next/

Un client Free qui a mis un miroir chez lui a été contacté par le fournisseur : http://sebsauvage.net/rhaa/index.php?2012/02/07/13/28/23-assignation-en-refere

Petites expériences de couverture de Free Mobile

La mise en service du réseau Free Mobile est l’objet de polémiques, notamment en provenance des 3 opérateurs déjà installés qui voient d’un mauvais œil l’apparition d’un nouveau concurrent sur ce marché rémunérateur. Les mauvaises langues ont été jusqu’à prétendre que toutes les antennes Free étaient éteintes.

Or il est très facile de faire soi-même quelques vérifications, sans avoir pour cela besoin d’huissiers ou de spécialistes.

J’ai utilisé les fonctions de base de mon téléphone, et aussi l’application Android Sensorly, qui permet de collecter des relevés et de les envoyer via Internet pour la constitution de cartes de réception des opérateurs. Ces cartes sont accessibles sur le web : ainsi voici les cartes des couverture des antennes Free et antennes Orange, ou des antennes Free seules.

Vous pouvez voir avec votre téléphone si une antenne Free se trouve à proximité, même si vous n’avez pas de SIM Free. Dans Android il faut se rendre dans Paramètres > Sans fil et réseaux > Réseaux mobiles > Opérateur de réseau et vous obtiendrez une page similaire à celle-ci :

(cliquer sur les images pour les agrandir)

FRA-15 est l’identifiant des antennes Free “natives”. Si cet identifiant apparaît, c’est qu’une antenne de cet opérateur est à portée de réception.

Si par contre vous avez une SIM Free, vous verrez ceci :

Le premier “Free” est celui qui apparaissait précédemment comme FRA-15, le second est en réalité Orange. Un accord a été passé entre les deux opérateurs pour masquer le nom d’Orange aux abonnés Free, afin sans doute d’éviter de les traumatiser. Si un seul Free apparaît, c’est ou bien qu’il n’existe qu’une antenne Orange à portée et pas d’antenne Free, ou bien le contraire (le premier cas étant le plus probable actuellement, Orange ayant une meilleure couverture).

.Il est alors possible de sélectionner le 1er Free (du moins sur mon téléphone il a toujours figuré en premier… on le remarque par le temps d’accrochage beaucoup plus long que chez Orange, en raison de la réception difficile) pour tenter de s’identifier sur cette antenne “native”. La présence d’une antenne Free “native” ne signifie pas automatiquement qu’il est possible de l’utiliser (elle peut être trop lointaine pour recevoir les signaux de notre téléphone).

On peut ensuite avec vérifier dans la page “Détails” de l’application Sensorly, qui en profitera pour effectuer un relevé. Sur ce premier exemple, bien que MCC/MNC soient bien ceux de Free (208-15), la tentative d’accrochage n’a pas encore abouti, comme le montrent les champs LAC et Cell Id à 0 ainsi que le petit “x” en haut, dans les barres de réception :

Sur l’exemple qui suit, le téléphone s’est enfin accroché sur l’antenne Free et est donc en mesure d’indiquer le Cell Id. Il m’a fallu de nombreux essais depuis différents lieux avant d’y arriver. La mention “No connection” semble indiquer que la connexion n’est pas utilisable, pourtant j’ai déjà réussi à passer des appels ainsi, même avec des barres de réception en haut de l’écran restées grises au lieu de passer en vert :

 

Avec l’application GSM Signal Monitoring: on obtient un peu plus d’informations. On note que le Cell-Id affiché n’est pas le même qu’avec Sensorly, pourtant il s’agit très probablement de la même antenne. On peut voir également à la couleur orange-rouge de la barre que l’application juge le niveau de réception (-91 dBm) relativement faible. Cela s’explique sans doute par la distance de l’antenne, de 600 mètres en zone urbaine dense. Théoriquement cette application donne la liste de toutes les antennes avec leur niveau de réception, en pratique sur mon téléphone il n’y en a jamais plus d’une visible à la fois, même avec un autre opérateur que Free.

 

 

 

 

 

 

 

Pendant ce temps Sensorly collecte les informations sur les antennes visibles, comme le montre la petite icone en haut de l’écran.

La carte “statique” des antennes répertoriées indique encore un autre identifiant pour l’antenne (toujours très probablement la même) : 780262.

Et on voit ci-dessous, après envoi des données que j’ai collectées, le résultat sur la carte Sensorly (malheureusement il n’est pas possible d’indiquer directement un lieu et niveau de zoom sur la carte). Il a fallu patienter un peu pour que le cache des dalles de la carte soit remplacé par les données à jour. Mon trajet est clairement visible !

 

 

Au sujet de copwatchnord-idf.eu.org

Ce billet va être un tantinet abscons car technique, et je n’ai malheureusement pas le temps de développer… que les lecteurs veuillent bien m’en excuser. Il y aurait beaucoup à dire, des pages et des pages, mais je vais me limiter à l’essentiel.

Rapide historique

Le site copwatchnord-idf.org a défrayé la chronique cet automne car il a provoqué l’ire du ministère de l’Intérieur. Ce dernier a réussi à en obtenir le blocage sur le territoire français, obtenant aussitôt un bel effet Streisand puisque des miroirs sont apparus aussitôt après. Ce blocage a été obtenu par le blocage, par les principaux fournisseurs d’accès français, de l’adresse IP du site, qui se trouve hébergé aux États-Unis. On trouvera sur Numérama un résumé de l’affaire. Selon cet article ultérieur de Numérama, les éditeurs du site Copwatch ne s’étant pas présentés à l’audience, le tribunal n’a pas débattu de la légalité du site .

Depuis quelques jours, le site est réapparu à l’adresse https://copwatchnord-idf.eu.org/. Le 24 janvier, cela a donné matière à un article sur le site web du journal Le Point : Censuré par Claude Guéant, Copwatch revient.

Or, le domaine copwatchnord-idf.eu.org, comme son nom l’indique, a été réservé via eu.org, service que je gère depuis 1996 avec l’aide d’une équipe de bénévoles. Le domaine copwatchnord-idf.eu.org a été validé (rendu utilisable) le 5 novembre 2011.

Pour rappel, eu.org n’est pas hébergeur mais distribue des noms de domaine gratuitement. eu.org est un simple intermédiaire technique et a distribué à ce jour plus de 20 000 domaines.

Les nouvelles du jour

Des bruits laissaient entendre cet après-midi que la place Beauvau aurait dit qu’il serait pratiquement impossible d’identifier l’hébergeur de eu.org.

Mon intuition me dit que si la place Beauvau mentionne actuellement eu.org, c’est très probablement en raison de la réapparition de Copwatch.

Revenons sur les termes de l’affirmation ci-dessus :

– l’hébergeur (celui qui fournit le serveur contenant les pages web ainsi que les logiciels du service de fourniture de noms de domaine) est parfaitement identifié puisqu’il s’agit de moi-même, sur ma liaison ADSL personnelle. Je suis facilement identifiable par la base publique Whois des noms de domaine publiée par le registrar Gandi.net (pour les domaines dont il a la charge) ; de même mon fournisseur d’accès, Free, est facilement identifiable par la base Whois d’allocation des adresses IP dans laquelle figure le bloc où se trouve celle que j’utilise.

– l’hébergeur de eu.org n’a rien à voir avec les hébergeurs des 20 000 sites, dont Copwatch, délégués par eu.org via le système de noms de domaine ;

– la prestation fournie par eu.org à ses utilisateurs, dont Copwatch, n’est pas une prestation d’hébergement mais la simple fourniture (on dit délégation) d’un nom de domaine.

– les personnes responsables des domaines ainsi fournis (délégués) fournissent des informations de contact supposées sincères, dont l’exactitude n’est pas vérifiée, mais qui sont diffusées publiquement sous le nom de base Whois. Au minimum il faut que l’adresse email fournie et les serveurs de noms soient techniquement corrects au moment de la demande de délégation du domaine, sinon l’enregistrement est refusé.

Et maintenant ?

Il est probable que le ministère de l’Intérieur va demander que le site copwatchnord-idf.eu.org soit, sinon fermé proprement dit, du moins rendu inaccessible. Le site étant physiquement hébergé aux USA, il est impossible d’obtenir la coupure du serveur qui l’héberge pour la même raison qu’en octobre.

En revanche, il est possible, par exemple, que :

– le ministère demande aux fournisseurs d’accès français, de même qu’en octobre, le blocage pour les accès depuis la France de l’adresse IP du nouveau site (située chez le même hébergeur que l’ancien) ;

– ou qu’il demande à eu.org la coupure du domaine copwatchnord-idf.eu.org.

N’étant pas juriste, je ne suis pas en mesure de juger de la légalité, ni des mesures citées ci-dessus qui posent de sérieuses questions sur les libertés publiques, ni du site Copwatch lui-même.

J’espère en tout cas que l’on n’utilisera pas une bombe atomique pour atteindre la cible, comme c’est malheureusement trop souvent le cas par les temps qui courent lorsqu’Internet est concerné.

Mise à jour : article du 1er février de PcInpact sur le développement de l’affaire (et encore un autre nom de domaine pour le site : copwatchnord-idf.meta.gd). Rendez-vous le 7 février apparemment…

Mise à jour 2 février au soir : un article d’Arrêt sur images revient sur l’affaire.

 

Vidéo HD : caméscope ou appareil réflex ?

Vue la popularité croissante des appareils photo réflex permettant l’enregistrement de vidéos HD, on entend parfois affirmer qu’ils remplacent (ou vont remplacer) les caméscopes.

Pourtant, pour utiliser ces deux types d’appareils, je peux dire que les usages que j’en fais n’ont pas grand chose à voir.

Le caméscope HD :

  • dispose d’un autofocus en continu qui permet le recadrage à tout moment ;
  • possède une autonomie d’au moins 1 à 2 heures pour filmer en continu (que ce soit sur cassette magnétique ou disque dur) ;
  • dispose d’un viseur interne bien visible même en plein soleil ;
  • reste allumé jusqu’à 5 minutes en pause, entre deux prises.

L’appareil réflex souffre en partie des contraintes techniques imposées par le miroir relevable de la visée réflex :

  • nécessite généralement une mise au point fixe pendant la durée du plan, ou mise à jour au jugé avec les risques d’imprécision que cela comporte ; le capteur (donc l’ouverture) étant grand, la profondeur de champ est réduite, ce qui ne favorise pas la netteté générale, même si l’aspect “cinéma” est plaisant ;
  • préfère les plans fixes, pour la même raison ;
  • ne présente qu’un écran LCD pour la visée (le viseur optique est désactivé), ce qui s’avère extrêmement peu pratique et quasiment inutilisable au soleil ;
  • ne possède qu’une autonomie réduite : petite batterie et nécessité de conserver l’écran LCD allumé, ce qui l’oblige à s’éteindre assez rapidement lorsqu’on n’effectue pas une prise de vue (au bout de 30 secondes sur le mien)
  • en revanche, le temps de démarrage que permet l’absence de cassette ou disque est bien plus réduit.

Enfin, sur l’autonomie “en déplacement” (vacances…), les cassettes magnétiques sont imbattables : environ 2€ par heure d’enregistrement (13 Go en HDV), à comparer avec le prix des cartes mémoires.

En conclusion : non, les réflex numériques ne sont pas prêts à remplacer les caméscopes dans une utilisation loisirs/famille classique pour des prises de vue longues et peu ou pas préparées.

En revanche, ils sont pratiques pour certains usages bien précis :

  • de la prise de vue courte, “rapide et sale”, façon vidéo pour Youtube, mais de qualité : infiniment mieux que ce que l’on obtiendra avec un téléphone portable.
  • à l’extrême opposé, de la prise de vue “pro” façon cinéma avec préparation : sur trépied, plan fixe, éclairage soigné. Dans ce cadre, les contraintes dues au réflex sont parfaitement habituelles.

Ce sont les conclusions auxquelles je suis arrivé après quelques mois de cohabitation des deux systèmes. Mais la technique évoluant vite du côté des réflex, il est probable que ces conclusions seront à revoir dans quelques années.

Internet à l’Élysée : rétropédalage politique pour 2012 en sept actes

Acte I : la loi Hadopi

Les lois HADOPI 1 (Haute Autorité  pour la diffusion des œuvres et la protection des droits sur Internet) et HADOPI 2 sont bien connues aujourd’hui. Suites de la loi DADVSI, ce sont de nièmes lois de commande destinées à protéger les ayants-droit de la musique et du cinéma, établies au nom de notre exception culturelle bien française (les états-uniens, ces vilains, ont tendance à considérer ces arts comme une industrie ; chez nous ils relèvent du ministère de la Culture, qui n’a heureusement rien à voir avec de sordides problématiques pécuniaires).

Nicolas Sarkozy veut ainsi civiliser Internet. Ce sont ses mots.

Or chacun sait, dans les milieux techniques liés à l’informatique et au réseau, qu’il n’existe strictement aucun moyen d’empêcher de façon fiable la copie d’une information numérique. Chacun le sait, et chacun l’a dit et répété. Cette analyse a été présentée en annexe du rapport Olivennes-Faure, qui avait été commandé par le gouvernement de l’époque pour recommandations préalables aux lois DADVSI puis HADOPI. Il ne s’agit pas d’un tour de passe-passe idéologique visant à légitimer le piratage éhonté des contenus — que la plupart des intervenants, sur le fond, condamnent –, mais de la simple constatation d’un fait.

En outre, chacun sait, et chacun a également dit et répété, que toute mesure de filtrage sur Internet est délicate à mettre en œuvre, d’une part pour des raisons techniques, d’autre part et surtout parce qu’elle met en jeu la liberté d’expression et d’information dans nos démocraties. Au minimum, on est en droit d’espérer que l’exercice de cette censure fasse l’objet d’une procédure judiciaire en bonne et due forme.

Cela n’a pas empêché le gouvernement et le rapporteur, Franck Riester, d’ignorer superbement tous ces avertissements pour faire voter la loi Hadopi, puis la loi Hadopi version 2 suite à la censure par le Conseil Constitutionnel d’un article important, dans des circonstances rocambolesques — lire les résumés sur Wikipedia dont j’ai donné les liens en haut d’article.

L’autorité créée par cette loi, la HADOPI, a commencé réellement son activité à la rentrée 2010, pour le modeste budget de 12 millions d’euros. Elle est supposée envoyer des courriers électroniques d’avertissement, avec l’aide des fournisseurs d’accès français, aux internautes qui copieraient illégalement des œuvres, se rendant ainsi coupables de contrefaçon ; puis, s’ils persistent dans l’erreur, à couper purement et simplement leur accès à Internet, à l’exception de la télévision et de la téléphonie. On note au passage avec intérêt la hiérarchie de valeurs imprimée dans l’esprit du législateur français : seuls les moyens de communication existant depuis plus de 70 ans ont l’honneur de se voir réellement protégés. Apparemment, Internet n’est pas aussi essentiel dans la vie de tous les jours que le téléphone et la télévision. Cette distinction n’a rien d’anecdotique, elle est au contraire au cœur du problème.

À ce jour, fin 2010, les résultats de la HADOPI ne sont pas au rendez-vous (une vraie surprise…). Le piratage ne semble pas avoir sensiblement régressé ; l’activité « pédagogique » (envoi de courriers électroniques), pourtant la plus facile à mettre en œuvre, semble très largement en deçà des quotas initialement annoncés de 50.000 adresses par jour. Cela semble étonnant, mais on verra plus bas qu’il y a une excellente explication pour cela.

Fin de l’acte I.

Acte II : le rabot fiscal

Suite à la crise financière, devant la nécessité de réduire le déficit du budget de l’État, plutôt que d’essayer de réduire son train de vie (cf par exemple ci-dessus : budget Hadopi), la solution française est bien connue : inventer de nouveaux impôts, augmenter les impôts existants et supprimer les niches fiscales.

Nous avons donc pu assister au rabotage récent du statut de jeune entreprise innovante (JEI) et du Crédit Impôt-Recherche ; rabotage qui désole beaucoup de créateurs d’entreprises de technologie.

Nous allons également assister dans les jours qui viennent à la remontée, déjà votée, du taux de TVA sur les accès ADSL, et qui s’applique au 1er janvier 2011. Cette mesure irrite les fournisseurs d’accès et abonnés Internet, qui ont la désagréable impression d’être une nouvelle fois les dindons de la farce.

Acte III : Wikileaks

Là dessus, interviennent les déclarations fracassantes d’Éric Besson, à peine arrivé à l’économie numérique (en remplacement de la regrettée Nathalie Kosciusko-Morizet), souhaitant éjecter Wikileaks des serveurs français qui l’hébergent par une lettre de mission à Pascal Faure (CGIET) qui restera dans les annales. On est là en plein dans la mission « civilisatrice ».

Nouvel émoi. Rigolade (jaune) lorsqu’une fuite du conseil des ministres laisse entendre que le président a confondu Wikipedia avec Wikileaks.

Acte IV : l’annonce du déjeuner de bloggueurs influents

Le président de la République, en homme de dialogue, bien conseillé par son entourage et manifestement conscient de la grogne et de la gêne grandissantes dans un secteur d’avenir qui lui tient particulièrement à cœur (au moins en discours), a cherché a renouer le contact en invitant quelques « personnalités » de l’Internet français pour un déjeuner informel à l’Élysée, le jeudi 16 décembre.

Et là, les choses deviennent très intéressantes pour qui veut s’informer sur le fonctionnement de notre démocratie, les pratiques de nos hommes politiques et la constitution de microcosmes, voire de connivences.

La liste des personnes invitées a été publiée :

  • Xavier Niel, fondateur d’Iliad et patron de Free ;
  • Jean-Michel Planche, fondateur d’Oléane et président de Witbe ;
  • Daniel Marhely, président de Deezer ;
  • Maître Eolas, blogueur et avocat ;
  • Nicolas Vanbremeersch, blogueur (Meilcour.fr, ex-Versac) et fondateur de Spintank ;
  • Eric Dupin, blogueur (Presse Citron) ;
  • Jacques-Antoine Granjon, président de vente-privée.com ;
  • Jean-Baptiste Descroix-Vernier, directeur de Rentabiliweb.

Un choix varié, entrepreneurs comme « blogueurs » relativement connus, qui n’ont pas dû se faire prier : quand on a l’honneur d’être invité à l’Élysée par le président de la République, en général, on y va ; ou on explique comme l’a très bien fait Korben pourquoi on a de très bonnes raisons de refuser.

Acte V : le passage de la loi LOPPSI

Par un amusant hasard du calendrier parlementaire, c’est la nuit précédant le repas suscité qu’a été votée en 2e lecture à l’assemblée la loi LOPPSI sous la férule de Brice Hortefeux et de Éric Ciotti. Chacun pouvait assister à sa retransmission en direct sur le site Internet de l’assemblée. Dans un hémicycle quasiment vide en fin de soirée, on pouvait voir les rares députés présents rejeter en bloc les amendements de bon sens proposés, y compris ceux provenant de députés UMP comme Laure de la Raudière ou Lionel Tardy. Sans parler évidemment de ceux des très rares députés d’opposition présents, Patrick Braouzec et Patrick Bloche. Un processus similaire à celui de l’adoption de la loi HADOPI, avec un résultat qui laisse à désirer pour les mêmes raisons : adoption du filtrage d’Internet vis à vis des contenus pédopornographiques sur simple décision administrative, sans intervention d’un juge, sans même la moindre transparence sur les sites visés. Préférence pour la censure des contenus plutôt que pour l’action contre les actes répréhensibles : la définition même de la tartuferie.

En somme, on préfère l’affichage médiatique de petits bras musclés plutôt que l’efficacité, comme dans le cas d’HADOPI.

Il ne faut probablement pas attendre grand chose du passage en 2e lecture au sénat pour améliorer la loi, il ne reste donc plus que le conseil constitutionnel.

Acte VI : le déjeuner

Le décor est posé, les lois sont quasiment votées dans leur ensemble d’une manière irréversible à court terme. Le moment est donc idéal pour que le président de la République, à l’approche de l’échéance électorale de 2012, puisse afficher la volonté de dialogue qui a toujours caractérisé son action. En effet, un calcul rapide permet de constater que les internautes échaudés par HADOPI et LOPPSI sont probablement un petit peu plus nombreux que les ayants-droit comme Johnny Hallyday, ses collègues et leurs producteurs. Transposé en voix aux élections de 2012, cela pourrait se traduire par un sérieux handicap pour le parti du président.

Cela serait encore plus fâcheux si l’HADOPI prenait sa pleine puissance d’envoi de courriers pédagogiques, se transformant par là même en arme de destruction massive de voix pour l’UMP.

C’est donc là que nous entrons de plain-pied dans la haute politique pré-électorale.

Quatre convives ont fait des compte-rendus directs ou indirect du repas, les voici. Je vous invite à les lire car il est difficile de les paraphraser :

On trouve également les traditionnelles photos sur le perron.

Les déjeuners à l’Élysée ne sont pas rares, mais, fait notable, c’est sans doute la première fois que l’on peut en lire plusieurs compte-rendus aussi directs, qui ne sont pas passés par le filtre aseptisant des médias classiques. Il est ainsi possible d’entrevoir les avis divergents, les points communs, le tout dans une grande transparence, dont on peut très sincèrement remercier les intéressés.

Acte VII : le Conseil

Pour résumer, le président veut établir un dialogue et, pour cela, propose en particulier d’établir une sorte de Conseil National du Numérique (pas forcément sous ce nom), qui était déjà dans les cartons après la fermeture des quelques instances similaires l’ayant précédé. Faire et défaire…

Outre l’opportunisme de la démarche, déjà noté ci-dessus ainsi que dans certains compte-rendus, on peut voir là le réflexe classique de l’homme politique lorsqu’il perd pied : créer une instance « représentative » (il ne s’agit pas forcément qu’elle soit réellement représentative, mais il faut quand même qu’elle en ait l’air). Cela permet :

  • d’établir un dialogue, au moins apparent, ce qui est d’autant plus essentiel qu’en fait la messe est dite et les lois déjà  votées — en entreprise, on appelait cela le management participatif ;
  • de se débarrasser des patates chaudes en les déléguant ;
  • d’avoir un fusible à faire sauter en cas de problème, par remplacement, comme dans un gouvernement ;
  • de déléguer la communication des mauvaises nouvelles en utilisant éventuellement les titulaires de la fonction comme cautions morales en fonction de l’aura qu’ils ont pu acquérir par ailleurs dans une vie antérieure ;
  • de montrer qu’on agit pour résoudre les problèmes ;
  • de distribuer des postes honorifiques à des gens méritants, compétents ou populaires — en en faisant, le cas échéant et s’ils ne le sont déjà, des obligés, dans un classique échange de bons procédés ;
  • éventuellement — l’improbable n’est jamais exclu –, d’avancer réellement.

Ce type de mécanisme est parfaitement connu, bien rodé et largement pratiqué. Il peut même fonctionner si les objectifs stratégiques sont clairement établis, ce qui est souvent le cas lorsqu’à l’extrême on souhaite calmer ou satisfaire tel ou tel lobby.

Mais dans le cas du numérique ? Que recouvre ce mot, d’ailleurs ? Et même si on se limite à Internet ?

L’écosystème d’Internet n’est pas homogène au même titre que l’industrie musicale, et ne peut donc pas constituer un lobby, même au sens noble du terme.

Internet est un croisement bizarre entre la technologie informatique, l’anarchie et l’esprit d’entreprise, mélange hétérogène difficile à appréhender pour les hommes politiques, et à plus forte raison par ceux qui n’y mettent pas les pieds.

Internet étant une agglomération d’intérêts variés et souvent divergents (particuliers de tous milieux et de tous âges, fournisseurs d’accès « purs » ou telcos reconvertis tant bien que mal, éditeurs de contenus, fabricants de matériel, universitaires, chercheurs, commerçants, PME…, en somme des citoyens de toutes origines), il semble difficile de le faire représenter en tant que tel ; problématique qui s’est déjà présentée, à plus petite échelle et de manière beaucoup plus informelle, pour le choix des convives à inviter…

Épilogue

En conclusion, la chose qui me semble évidente est que la création d’un tel conseil serait, avant tout, un bel aveu d’impuissance de la part du pouvoir politique. C’est l’ensemble des mœurs et mentalités politiques françaises qui doit être rénové et modernisé, adapté au numérique et à Internet, plutôt que l’inverse. La conclusion de Versac (paragraphe titré “manque d’ambitions”…) me semble bien résumer la question et aller dans un sens intelligent. Et comme le dit Jean-Michel Planche : on n’est pas à l’abri d’un coup de chance.

Quant à la malheureuse HADOPI, on voit qu’elle est coincée entre le marteau-ayants-droit et l’enclume-UMP-2012. S’il était facile de voter une loi d’affichage pour satisfaire les premiers, il va être plus difficile de jouer la montre pendant encore 18 mois pour envoyer le moins possible de courriers pédagogiques. D’ailleurs, aux dernières nouvelles, il semblerait que les ayants-droit commencent à découvrir la nature du problème…

Mise à jour du 21 décembre 2010 : Nicolas Sarkozy, le retour du candidat numérique (tout un programme), point de vue de Pierre Chappaz sur le déjeuner, et sur l’annonce officielle d’Éric Besson de ce jour (création du CNN, …).

Petite expérience de DNS et de Twitter avec wikileaks

On a tout à fait le droit de ne pas partager à 100 % les idées et les procédés de Wikileaks, actuellement sur le devant de l’actualité, et certaines de ces critiques sont légitimes. Mais, a contrario, certains des procédés utilisés pour les faire taire ont un petit parfum qui, à titre personnel, me dérange.

L’expérience du jour : wikileaks.org ayant vu son DNS coupé par son hébergeur (problèmes d’attaques, officiellement), les discussions de ce matin sur Twitter consistaient à s’échanger “à la main” les adresses IP des miroirs… pas très pratique. Cette coupure de DNS fait suite à un déplacement du site de chez Amazon, aux USA, vers OVH, un hébergeur français.

Et puis j’ai fait une proposition toute bête qui a bien décollé et j’ai créé wikileaks.eu.org pour accomplir ma part, merci à tous ceux qui ont suivi et qui ont été ajoutés dans cete liste plus générale (section “miroirs DNS”).

Jean-Michel Planche ayant pris la peine de faire un résumé du contexte, je ne vais pas le paraphraser, allez voir son billet.

Voir aussi la lettre de mission d’Éric Besson (à Pascal Faure du CGIET) divulguée par LePost, qui vaut franchement le déplacement. Pour résumer, Éric Besson cherche un moyen d’expulser le site de France.

Un autre billet général chez Authueil sur la censure en général et celle de Wikileaks en particulier résume bien la question.

Et un article d’Écrans (Libération) résume bien la situation à l’exception d’une erreur : FDN n’héberge pas un miroir de Wikileaks, wikileaks.fdn.fr est juste un renvoi DNS suivant la méthode exposée ci-dessus.

Désolé pour ce billet un peu décousu mis à jour au fur et à mesure…

Mise à jour 18h45 : c’est maintenant le nom wikileaks.ch actif depuis ce matin qui est en carafe…

Mise à jour 4 décembre 2h35 : une liste plus complète chez Bluetouff.

IPv4 est presque mort

Les statistiques d’épuisement des adresses IPv4 libres indiquent actuellement 91 jours de « stock » dans les registres régionaux, soit un épuisement début mars 2011.

En fait il s’agit d’un épuisement « au plus tard » car le rythme d’allocation a une nette tendance à l’accélération : le 14 juillet 2010 (date mémorable du plantage de france.fr le jour même de son lancement), le compteur indiquait 365 jours soit un épuisement tombant le 14 juillet 2011.

Autrement dit, certains ont déjà commencé à paniquer et stockent des adresses en douce. Mise à jour : Stéphane Bortzmeyer me signale que la raison en est que 5 plages d’adresses n’avaient pas été prises en compte dans les statistiques. Article plus détaillé signalé sur Twitter par @nkgl.

Le temps que les adresses des registres régionaux (continentaux) « percolent » jusqu’aux allocataires (les sites utilisateurs), il y aura environ un an de répit.

Ensuite, les seules adresses faciles à obtenir étant les adresses IPv6, les premiers sites accessibles seulement en IPv6 commenceront à apparaître.

Autrement dit, il ne suffit pas d’avoir déjà sa petite adresse IPv4 pour se sentir non concerné. Internet va inévitablement perdre pendant quelques années sa connectivité complète, les inévitables sites en IPv6-seul ne pourront plus joindre les sites en IPv4-seul tant que ces derniers ne seront pas passés à IPv6 eux aussi. On peut simplement espérer que cette période transitoire durera le moins longtemps possible. Il est probable que de nombreux vendeurs d’huile de serpent et de technologies de semi-transition plus ou moins bancales vont apparaître, dans la lignée du bug « an 2000 ».

J’invite les non-convaincus qui se disent que rien ne presse à lire l’excellent article en anglais de Geoff Huston qui démonte quelques mythes tenaces..

TCP-Estimated round-trip test

In an attempt to evaluate different methods for measuring the performance of a TCP/IP connection, I’ve bumped into FreeBSD‘s getsockopt(TCP_INFO) system call, cloned from a similar call invented by Linux, which kindly returns interesting data about the current TCP connection.

I was mainly interested about round-trip time (RTT, called tcpi_rtt) and its standard deviation, mistakenly called tcpi_rttvar even though it’s not a variance.

I’ve written a small proof-of-concept tool accessible at http://eu.org:4500/ to display operating system information retrieved from the current HTTP access. The page currently runs on a FreeBSD 9-CURRENT machine; feel free to try it out, it works either in IPv4 or IPv6. Here’s a sample as of today:

This experimental page displays raw system TCP estimates, in microseconds.

Address: 2a01:e35:8b50:2c40::4
Estimated round-trip time: 15437
Estimated standard deviation: 27937

Note that the measures are very rough. First, the real resolution is about 1 millisecond (one kernel tick), not 1 microsecond. Then, several RTT samples are smoothed into the provided values, with a bigger weight for more recent samples. I left the actual values obtained from the kernel, for clarity, even though giving them up to a 1 microsecond resolution is somewhat misleading.

Then, of course, the results also depend on the number of samples, which tends to be low: the above page waits for the client HTTP headers to be fully received, then emits its own headers in reply, then waits for one second to give some time for the TCP ack(s) to come back, then displays the then-current estimations.

The results are probably sufficient for TCP’s internal needs, but they may differ wildly from real RTT values. Plus, the real RTT value depends on packet size, which TCP doesn’t seem to take into account. The above example is taken from my local network and displays over 15 ms for the RTT, whereas the real RTT is well below 1 ms (0.23 min, 0.4 average with 0.01 standard deviation, according to ping). The results are not always wildly up, I’ve noticed the opposite effect from a remote mobile phone displaying ~100 ms whereas the ping time was more like ~200 ms…

Feel free to use it and add comments below.

voie libre ou appel système