Category Archives: Geek stuff

Petites expériences de couverture de Free Mobile

La mise en service du réseau Free Mobile est l’objet de polémiques, notamment en provenance des 3 opérateurs déjà installés qui voient d’un mauvais œil l’apparition d’un nouveau concurrent sur ce marché rémunérateur. Les mauvaises langues ont été jusqu’à prétendre que toutes les antennes Free étaient éteintes.

Or il est très facile de faire soi-même quelques vérifications, sans avoir pour cela besoin d’huissiers ou de spécialistes.

J’ai utilisé les fonctions de base de mon téléphone, et aussi l’application Android Sensorly, qui permet de collecter des relevés et de les envoyer via Internet pour la constitution de cartes de réception des opérateurs. Ces cartes sont accessibles sur le web : ainsi voici les cartes des couverture des antennes Free et antennes Orange, ou des antennes Free seules.

Vous pouvez voir avec votre téléphone si une antenne Free se trouve à proximité, même si vous n’avez pas de SIM Free. Dans Android il faut se rendre dans Paramètres > Sans fil et réseaux > Réseaux mobiles > Opérateur de réseau et vous obtiendrez une page similaire à celle-ci :

(cliquer sur les images pour les agrandir)

FRA-15 est l’identifiant des antennes Free “natives”. Si cet identifiant apparaît, c’est qu’une antenne de cet opérateur est à portée de réception.

Si par contre vous avez une SIM Free, vous verrez ceci :

Le premier “Free” est celui qui apparaissait précédemment comme FRA-15, le second est en réalité Orange. Un accord a été passé entre les deux opérateurs pour masquer le nom d’Orange aux abonnés Free, afin sans doute d’éviter de les traumatiser. Si un seul Free apparaît, c’est ou bien qu’il n’existe qu’une antenne Orange à portée et pas d’antenne Free, ou bien le contraire (le premier cas étant le plus probable actuellement, Orange ayant une meilleure couverture).

.Il est alors possible de sélectionner le 1er Free (du moins sur mon téléphone il a toujours figuré en premier… on le remarque par le temps d’accrochage beaucoup plus long que chez Orange, en raison de la réception difficile) pour tenter de s’identifier sur cette antenne “native”. La présence d’une antenne Free “native” ne signifie pas automatiquement qu’il est possible de l’utiliser (elle peut être trop lointaine pour recevoir les signaux de notre téléphone).

On peut ensuite avec vérifier dans la page “Détails” de l’application Sensorly, qui en profitera pour effectuer un relevé. Sur ce premier exemple, bien que MCC/MNC soient bien ceux de Free (208-15), la tentative d’accrochage n’a pas encore abouti, comme le montrent les champs LAC et Cell Id à 0 ainsi que le petit “x” en haut, dans les barres de réception :

Sur l’exemple qui suit, le téléphone s’est enfin accroché sur l’antenne Free et est donc en mesure d’indiquer le Cell Id. Il m’a fallu de nombreux essais depuis différents lieux avant d’y arriver. La mention “No connection” semble indiquer que la connexion n’est pas utilisable, pourtant j’ai déjà réussi à passer des appels ainsi, même avec des barres de réception en haut de l’écran restées grises au lieu de passer en vert :

 

Avec l’application GSM Signal Monitoring: on obtient un peu plus d’informations. On note que le Cell-Id affiché n’est pas le même qu’avec Sensorly, pourtant il s’agit très probablement de la même antenne. On peut voir également à la couleur orange-rouge de la barre que l’application juge le niveau de réception (-91 dBm) relativement faible. Cela s’explique sans doute par la distance de l’antenne, de 600 mètres en zone urbaine dense. Théoriquement cette application donne la liste de toutes les antennes avec leur niveau de réception, en pratique sur mon téléphone il n’y en a jamais plus d’une visible à la fois, même avec un autre opérateur que Free.

 

 

 

 

 

 

 

Pendant ce temps Sensorly collecte les informations sur les antennes visibles, comme le montre la petite icone en haut de l’écran.

La carte “statique” des antennes répertoriées indique encore un autre identifiant pour l’antenne (toujours très probablement la même) : 780262.

Et on voit ci-dessous, après envoi des données que j’ai collectées, le résultat sur la carte Sensorly (malheureusement il n’est pas possible d’indiquer directement un lieu et niveau de zoom sur la carte). Il a fallu patienter un peu pour que le cache des dalles de la carte soit remplacé par les données à jour. Mon trajet est clairement visible !

 

 

Vidéo HD : caméscope ou appareil réflex ?

Vue la popularité croissante des appareils photo réflex permettant l’enregistrement de vidéos HD, on entend parfois affirmer qu’ils remplacent (ou vont remplacer) les caméscopes.

Pourtant, pour utiliser ces deux types d’appareils, je peux dire que les usages que j’en fais n’ont pas grand chose à voir.

Le caméscope HD :

  • dispose d’un autofocus en continu qui permet le recadrage à tout moment ;
  • possède une autonomie d’au moins 1 à 2 heures pour filmer en continu (que ce soit sur cassette magnétique ou disque dur) ;
  • dispose d’un viseur interne bien visible même en plein soleil ;
  • reste allumé jusqu’à 5 minutes en pause, entre deux prises.

L’appareil réflex souffre en partie des contraintes techniques imposées par le miroir relevable de la visée réflex :

  • nécessite généralement une mise au point fixe pendant la durée du plan, ou mise à jour au jugé avec les risques d’imprécision que cela comporte ; le capteur (donc l’ouverture) étant grand, la profondeur de champ est réduite, ce qui ne favorise pas la netteté générale, même si l’aspect “cinéma” est plaisant ;
  • préfère les plans fixes, pour la même raison ;
  • ne présente qu’un écran LCD pour la visée (le viseur optique est désactivé), ce qui s’avère extrêmement peu pratique et quasiment inutilisable au soleil ;
  • ne possède qu’une autonomie réduite : petite batterie et nécessité de conserver l’écran LCD allumé, ce qui l’oblige à s’éteindre assez rapidement lorsqu’on n’effectue pas une prise de vue (au bout de 30 secondes sur le mien)
  • en revanche, le temps de démarrage que permet l’absence de cassette ou disque est bien plus réduit.

Enfin, sur l’autonomie “en déplacement” (vacances…), les cassettes magnétiques sont imbattables : environ 2€ par heure d’enregistrement (13 Go en HDV), à comparer avec le prix des cartes mémoires.

En conclusion : non, les réflex numériques ne sont pas prêts à remplacer les caméscopes dans une utilisation loisirs/famille classique pour des prises de vue longues et peu ou pas préparées.

En revanche, ils sont pratiques pour certains usages bien précis :

  • de la prise de vue courte, “rapide et sale”, façon vidéo pour Youtube, mais de qualité : infiniment mieux que ce que l’on obtiendra avec un téléphone portable.
  • à l’extrême opposé, de la prise de vue “pro” façon cinéma avec préparation : sur trépied, plan fixe, éclairage soigné. Dans ce cadre, les contraintes dues au réflex sont parfaitement habituelles.

Ce sont les conclusions auxquelles je suis arrivé après quelques mois de cohabitation des deux systèmes. Mais la technique évoluant vite du côté des réflex, il est probable que ces conclusions seront à revoir dans quelques années.

Internet à l’Élysée : rétropédalage politique pour 2012 en sept actes

Acte I : la loi Hadopi

Les lois HADOPI 1 (Haute Autorité  pour la diffusion des œuvres et la protection des droits sur Internet) et HADOPI 2 sont bien connues aujourd’hui. Suites de la loi DADVSI, ce sont de nièmes lois de commande destinées à protéger les ayants-droit de la musique et du cinéma, établies au nom de notre exception culturelle bien française (les états-uniens, ces vilains, ont tendance à considérer ces arts comme une industrie ; chez nous ils relèvent du ministère de la Culture, qui n’a heureusement rien à voir avec de sordides problématiques pécuniaires).

Nicolas Sarkozy veut ainsi civiliser Internet. Ce sont ses mots.

Or chacun sait, dans les milieux techniques liés à l’informatique et au réseau, qu’il n’existe strictement aucun moyen d’empêcher de façon fiable la copie d’une information numérique. Chacun le sait, et chacun l’a dit et répété. Cette analyse a été présentée en annexe du rapport Olivennes-Faure, qui avait été commandé par le gouvernement de l’époque pour recommandations préalables aux lois DADVSI puis HADOPI. Il ne s’agit pas d’un tour de passe-passe idéologique visant à légitimer le piratage éhonté des contenus — que la plupart des intervenants, sur le fond, condamnent –, mais de la simple constatation d’un fait.

En outre, chacun sait, et chacun a également dit et répété, que toute mesure de filtrage sur Internet est délicate à mettre en œuvre, d’une part pour des raisons techniques, d’autre part et surtout parce qu’elle met en jeu la liberté d’expression et d’information dans nos démocraties. Au minimum, on est en droit d’espérer que l’exercice de cette censure fasse l’objet d’une procédure judiciaire en bonne et due forme.

Cela n’a pas empêché le gouvernement et le rapporteur, Franck Riester, d’ignorer superbement tous ces avertissements pour faire voter la loi Hadopi, puis la loi Hadopi version 2 suite à la censure par le Conseil Constitutionnel d’un article important, dans des circonstances rocambolesques — lire les résumés sur Wikipedia dont j’ai donné les liens en haut d’article.

L’autorité créée par cette loi, la HADOPI, a commencé réellement son activité à la rentrée 2010, pour le modeste budget de 12 millions d’euros. Elle est supposée envoyer des courriers électroniques d’avertissement, avec l’aide des fournisseurs d’accès français, aux internautes qui copieraient illégalement des œuvres, se rendant ainsi coupables de contrefaçon ; puis, s’ils persistent dans l’erreur, à couper purement et simplement leur accès à Internet, à l’exception de la télévision et de la téléphonie. On note au passage avec intérêt la hiérarchie de valeurs imprimée dans l’esprit du législateur français : seuls les moyens de communication existant depuis plus de 70 ans ont l’honneur de se voir réellement protégés. Apparemment, Internet n’est pas aussi essentiel dans la vie de tous les jours que le téléphone et la télévision. Cette distinction n’a rien d’anecdotique, elle est au contraire au cœur du problème.

À ce jour, fin 2010, les résultats de la HADOPI ne sont pas au rendez-vous (une vraie surprise…). Le piratage ne semble pas avoir sensiblement régressé ; l’activité « pédagogique » (envoi de courriers électroniques), pourtant la plus facile à mettre en œuvre, semble très largement en deçà des quotas initialement annoncés de 50.000 adresses par jour. Cela semble étonnant, mais on verra plus bas qu’il y a une excellente explication pour cela.

Fin de l’acte I.

Acte II : le rabot fiscal

Suite à la crise financière, devant la nécessité de réduire le déficit du budget de l’État, plutôt que d’essayer de réduire son train de vie (cf par exemple ci-dessus : budget Hadopi), la solution française est bien connue : inventer de nouveaux impôts, augmenter les impôts existants et supprimer les niches fiscales.

Nous avons donc pu assister au rabotage récent du statut de jeune entreprise innovante (JEI) et du Crédit Impôt-Recherche ; rabotage qui désole beaucoup de créateurs d’entreprises de technologie.

Nous allons également assister dans les jours qui viennent à la remontée, déjà votée, du taux de TVA sur les accès ADSL, et qui s’applique au 1er janvier 2011. Cette mesure irrite les fournisseurs d’accès et abonnés Internet, qui ont la désagréable impression d’être une nouvelle fois les dindons de la farce.

Acte III : Wikileaks

Là dessus, interviennent les déclarations fracassantes d’Éric Besson, à peine arrivé à l’économie numérique (en remplacement de la regrettée Nathalie Kosciusko-Morizet), souhaitant éjecter Wikileaks des serveurs français qui l’hébergent par une lettre de mission à Pascal Faure (CGIET) qui restera dans les annales. On est là en plein dans la mission « civilisatrice ».

Nouvel émoi. Rigolade (jaune) lorsqu’une fuite du conseil des ministres laisse entendre que le président a confondu Wikipedia avec Wikileaks.

Acte IV : l’annonce du déjeuner de bloggueurs influents

Le président de la République, en homme de dialogue, bien conseillé par son entourage et manifestement conscient de la grogne et de la gêne grandissantes dans un secteur d’avenir qui lui tient particulièrement à cœur (au moins en discours), a cherché a renouer le contact en invitant quelques « personnalités » de l’Internet français pour un déjeuner informel à l’Élysée, le jeudi 16 décembre.

Et là, les choses deviennent très intéressantes pour qui veut s’informer sur le fonctionnement de notre démocratie, les pratiques de nos hommes politiques et la constitution de microcosmes, voire de connivences.

La liste des personnes invitées a été publiée :

  • Xavier Niel, fondateur d’Iliad et patron de Free ;
  • Jean-Michel Planche, fondateur d’Oléane et président de Witbe ;
  • Daniel Marhely, président de Deezer ;
  • Maître Eolas, blogueur et avocat ;
  • Nicolas Vanbremeersch, blogueur (Meilcour.fr, ex-Versac) et fondateur de Spintank ;
  • Eric Dupin, blogueur (Presse Citron) ;
  • Jacques-Antoine Granjon, président de vente-privée.com ;
  • Jean-Baptiste Descroix-Vernier, directeur de Rentabiliweb.

Un choix varié, entrepreneurs comme « blogueurs » relativement connus, qui n’ont pas dû se faire prier : quand on a l’honneur d’être invité à l’Élysée par le président de la République, en général, on y va ; ou on explique comme l’a très bien fait Korben pourquoi on a de très bonnes raisons de refuser.

Acte V : le passage de la loi LOPPSI

Par un amusant hasard du calendrier parlementaire, c’est la nuit précédant le repas suscité qu’a été votée en 2e lecture à l’assemblée la loi LOPPSI sous la férule de Brice Hortefeux et de Éric Ciotti. Chacun pouvait assister à sa retransmission en direct sur le site Internet de l’assemblée. Dans un hémicycle quasiment vide en fin de soirée, on pouvait voir les rares députés présents rejeter en bloc les amendements de bon sens proposés, y compris ceux provenant de députés UMP comme Laure de la Raudière ou Lionel Tardy. Sans parler évidemment de ceux des très rares députés d’opposition présents, Patrick Braouzec et Patrick Bloche. Un processus similaire à celui de l’adoption de la loi HADOPI, avec un résultat qui laisse à désirer pour les mêmes raisons : adoption du filtrage d’Internet vis à vis des contenus pédopornographiques sur simple décision administrative, sans intervention d’un juge, sans même la moindre transparence sur les sites visés. Préférence pour la censure des contenus plutôt que pour l’action contre les actes répréhensibles : la définition même de la tartuferie.

En somme, on préfère l’affichage médiatique de petits bras musclés plutôt que l’efficacité, comme dans le cas d’HADOPI.

Il ne faut probablement pas attendre grand chose du passage en 2e lecture au sénat pour améliorer la loi, il ne reste donc plus que le conseil constitutionnel.

Acte VI : le déjeuner

Le décor est posé, les lois sont quasiment votées dans leur ensemble d’une manière irréversible à court terme. Le moment est donc idéal pour que le président de la République, à l’approche de l’échéance électorale de 2012, puisse afficher la volonté de dialogue qui a toujours caractérisé son action. En effet, un calcul rapide permet de constater que les internautes échaudés par HADOPI et LOPPSI sont probablement un petit peu plus nombreux que les ayants-droit comme Johnny Hallyday, ses collègues et leurs producteurs. Transposé en voix aux élections de 2012, cela pourrait se traduire par un sérieux handicap pour le parti du président.

Cela serait encore plus fâcheux si l’HADOPI prenait sa pleine puissance d’envoi de courriers pédagogiques, se transformant par là même en arme de destruction massive de voix pour l’UMP.

C’est donc là que nous entrons de plain-pied dans la haute politique pré-électorale.

Quatre convives ont fait des compte-rendus directs ou indirect du repas, les voici. Je vous invite à les lire car il est difficile de les paraphraser :

On trouve également les traditionnelles photos sur le perron.

Les déjeuners à l’Élysée ne sont pas rares, mais, fait notable, c’est sans doute la première fois que l’on peut en lire plusieurs compte-rendus aussi directs, qui ne sont pas passés par le filtre aseptisant des médias classiques. Il est ainsi possible d’entrevoir les avis divergents, les points communs, le tout dans une grande transparence, dont on peut très sincèrement remercier les intéressés.

Acte VII : le Conseil

Pour résumer, le président veut établir un dialogue et, pour cela, propose en particulier d’établir une sorte de Conseil National du Numérique (pas forcément sous ce nom), qui était déjà dans les cartons après la fermeture des quelques instances similaires l’ayant précédé. Faire et défaire…

Outre l’opportunisme de la démarche, déjà noté ci-dessus ainsi que dans certains compte-rendus, on peut voir là le réflexe classique de l’homme politique lorsqu’il perd pied : créer une instance « représentative » (il ne s’agit pas forcément qu’elle soit réellement représentative, mais il faut quand même qu’elle en ait l’air). Cela permet :

  • d’établir un dialogue, au moins apparent, ce qui est d’autant plus essentiel qu’en fait la messe est dite et les lois déjà  votées — en entreprise, on appelait cela le management participatif ;
  • de se débarrasser des patates chaudes en les déléguant ;
  • d’avoir un fusible à faire sauter en cas de problème, par remplacement, comme dans un gouvernement ;
  • de déléguer la communication des mauvaises nouvelles en utilisant éventuellement les titulaires de la fonction comme cautions morales en fonction de l’aura qu’ils ont pu acquérir par ailleurs dans une vie antérieure ;
  • de montrer qu’on agit pour résoudre les problèmes ;
  • de distribuer des postes honorifiques à des gens méritants, compétents ou populaires — en en faisant, le cas échéant et s’ils ne le sont déjà, des obligés, dans un classique échange de bons procédés ;
  • éventuellement — l’improbable n’est jamais exclu –, d’avancer réellement.

Ce type de mécanisme est parfaitement connu, bien rodé et largement pratiqué. Il peut même fonctionner si les objectifs stratégiques sont clairement établis, ce qui est souvent le cas lorsqu’à l’extrême on souhaite calmer ou satisfaire tel ou tel lobby.

Mais dans le cas du numérique ? Que recouvre ce mot, d’ailleurs ? Et même si on se limite à Internet ?

L’écosystème d’Internet n’est pas homogène au même titre que l’industrie musicale, et ne peut donc pas constituer un lobby, même au sens noble du terme.

Internet est un croisement bizarre entre la technologie informatique, l’anarchie et l’esprit d’entreprise, mélange hétérogène difficile à appréhender pour les hommes politiques, et à plus forte raison par ceux qui n’y mettent pas les pieds.

Internet étant une agglomération d’intérêts variés et souvent divergents (particuliers de tous milieux et de tous âges, fournisseurs d’accès « purs » ou telcos reconvertis tant bien que mal, éditeurs de contenus, fabricants de matériel, universitaires, chercheurs, commerçants, PME…, en somme des citoyens de toutes origines), il semble difficile de le faire représenter en tant que tel ; problématique qui s’est déjà présentée, à plus petite échelle et de manière beaucoup plus informelle, pour le choix des convives à inviter…

Épilogue

En conclusion, la chose qui me semble évidente est que la création d’un tel conseil serait, avant tout, un bel aveu d’impuissance de la part du pouvoir politique. C’est l’ensemble des mœurs et mentalités politiques françaises qui doit être rénové et modernisé, adapté au numérique et à Internet, plutôt que l’inverse. La conclusion de Versac (paragraphe titré “manque d’ambitions”…) me semble bien résumer la question et aller dans un sens intelligent. Et comme le dit Jean-Michel Planche : on n’est pas à l’abri d’un coup de chance.

Quant à la malheureuse HADOPI, on voit qu’elle est coincée entre le marteau-ayants-droit et l’enclume-UMP-2012. S’il était facile de voter une loi d’affichage pour satisfaire les premiers, il va être plus difficile de jouer la montre pendant encore 18 mois pour envoyer le moins possible de courriers pédagogiques. D’ailleurs, aux dernières nouvelles, il semblerait que les ayants-droit commencent à découvrir la nature du problème…

Mise à jour du 21 décembre 2010 : Nicolas Sarkozy, le retour du candidat numérique (tout un programme), point de vue de Pierre Chappaz sur le déjeuner, et sur l’annonce officielle d’Éric Besson de ce jour (création du CNN, …).

Petite expérience de DNS et de Twitter avec wikileaks

On a tout à fait le droit de ne pas partager à 100 % les idées et les procédés de Wikileaks, actuellement sur le devant de l’actualité, et certaines de ces critiques sont légitimes. Mais, a contrario, certains des procédés utilisés pour les faire taire ont un petit parfum qui, à titre personnel, me dérange.

L’expérience du jour : wikileaks.org ayant vu son DNS coupé par son hébergeur (problèmes d’attaques, officiellement), les discussions de ce matin sur Twitter consistaient à s’échanger “à la main” les adresses IP des miroirs… pas très pratique. Cette coupure de DNS fait suite à un déplacement du site de chez Amazon, aux USA, vers OVH, un hébergeur français.

Et puis j’ai fait une proposition toute bête qui a bien décollé et j’ai créé wikileaks.eu.org pour accomplir ma part, merci à tous ceux qui ont suivi et qui ont été ajoutés dans cete liste plus générale (section “miroirs DNS”).

Jean-Michel Planche ayant pris la peine de faire un résumé du contexte, je ne vais pas le paraphraser, allez voir son billet.

Voir aussi la lettre de mission d’Éric Besson (à Pascal Faure du CGIET) divulguée par LePost, qui vaut franchement le déplacement. Pour résumer, Éric Besson cherche un moyen d’expulser le site de France.

Un autre billet général chez Authueil sur la censure en général et celle de Wikileaks en particulier résume bien la question.

Et un article d’Écrans (Libération) résume bien la situation à l’exception d’une erreur : FDN n’héberge pas un miroir de Wikileaks, wikileaks.fdn.fr est juste un renvoi DNS suivant la méthode exposée ci-dessus.

Désolé pour ce billet un peu décousu mis à jour au fur et à mesure…

Mise à jour 18h45 : c’est maintenant le nom wikileaks.ch actif depuis ce matin qui est en carafe…

Mise à jour 4 décembre 2h35 : une liste plus complète chez Bluetouff.

IPv4 est presque mort

Les statistiques d’épuisement des adresses IPv4 libres indiquent actuellement 91 jours de « stock » dans les registres régionaux, soit un épuisement début mars 2011.

En fait il s’agit d’un épuisement « au plus tard » car le rythme d’allocation a une nette tendance à l’accélération : le 14 juillet 2010 (date mémorable du plantage de france.fr le jour même de son lancement), le compteur indiquait 365 jours soit un épuisement tombant le 14 juillet 2011.

Autrement dit, certains ont déjà commencé à paniquer et stockent des adresses en douce. Mise à jour : Stéphane Bortzmeyer me signale que la raison en est que 5 plages d’adresses n’avaient pas été prises en compte dans les statistiques. Article plus détaillé signalé sur Twitter par @nkgl.

Le temps que les adresses des registres régionaux (continentaux) « percolent » jusqu’aux allocataires (les sites utilisateurs), il y aura environ un an de répit.

Ensuite, les seules adresses faciles à obtenir étant les adresses IPv6, les premiers sites accessibles seulement en IPv6 commenceront à apparaître.

Autrement dit, il ne suffit pas d’avoir déjà sa petite adresse IPv4 pour se sentir non concerné. Internet va inévitablement perdre pendant quelques années sa connectivité complète, les inévitables sites en IPv6-seul ne pourront plus joindre les sites en IPv4-seul tant que ces derniers ne seront pas passés à IPv6 eux aussi. On peut simplement espérer que cette période transitoire durera le moins longtemps possible. Il est probable que de nombreux vendeurs d’huile de serpent et de technologies de semi-transition plus ou moins bancales vont apparaître, dans la lignée du bug « an 2000 ».

J’invite les non-convaincus qui se disent que rien ne presse à lire l’excellent article en anglais de Geoff Huston qui démonte quelques mythes tenaces..

TCP-Estimated round-trip test

In an attempt to evaluate different methods for measuring the performance of a TCP/IP connection, I’ve bumped into FreeBSD‘s getsockopt(TCP_INFO) system call, cloned from a similar call invented by Linux, which kindly returns interesting data about the current TCP connection.

I was mainly interested about round-trip time (RTT, called tcpi_rtt) and its standard deviation, mistakenly called tcpi_rttvar even though it’s not a variance.

I’ve written a small proof-of-concept tool accessible at http://eu.org:4500/ to display operating system information retrieved from the current HTTP access. The page currently runs on a FreeBSD 9-CURRENT machine; feel free to try it out, it works either in IPv4 or IPv6. Here’s a sample as of today:

This experimental page displays raw system TCP estimates, in microseconds.

Address: 2a01:e35:8b50:2c40::4
Estimated round-trip time: 15437
Estimated standard deviation: 27937

Note that the measures are very rough. First, the real resolution is about 1 millisecond (one kernel tick), not 1 microsecond. Then, several RTT samples are smoothed into the provided values, with a bigger weight for more recent samples. I left the actual values obtained from the kernel, for clarity, even though giving them up to a 1 microsecond resolution is somewhat misleading.

Then, of course, the results also depend on the number of samples, which tends to be low: the above page waits for the client HTTP headers to be fully received, then emits its own headers in reply, then waits for one second to give some time for the TCP ack(s) to come back, then displays the then-current estimations.

The results are probably sufficient for TCP’s internal needs, but they may differ wildly from real RTT values. Plus, the real RTT value depends on packet size, which TCP doesn’t seem to take into account. The above example is taken from my local network and displays over 15 ms for the RTT, whereas the real RTT is well below 1 ms (0.23 min, 0.4 average with 0.01 standard deviation, according to ping). The results are not always wildly up, I’ve noticed the opposite effect from a remote mobile phone displaying ~100 ms whereas the ping time was more like ~200 ms…

Feel free to use it and add comments below.

SEO : référencement et liens entrants

Mon billet d’hier sur les experts SEO a eu un succès certain (plus de 1000 visites à ce jour), principalement grâce à un grand nombre de citations sur Twitter. Suite à certains commentaires et après avoir consulté les explications données par certains experts en référencement sur leur propre site, je pense utile de compléter mes explications par quelques considérations sur le système des « liens entrants », aussi appelés « backlinks ».

Google utilise, comme évoqué hier, l’analyse du contenu d’une page pour lui associer des mots clés. Mais l’invention principale de Google, qui lui a permis une bien meilleure qualité de recherche, a été de prendre en compte également les références aux pages indexées faites depuis d’autres pages, établissant un système de pondération appelé PageRank, et ouvertement inspiré du système d’évaluation de l’influence des publications scientifiques (H-number).

Il est donc très efficace pour un site qui souhaite être mieux placé dans les résultats de recherche d’obtenir des liens entrants provenant d’autres sites.

Et c’est là que les choses commencent à se gâter. Car pour obtenir des liens, il n’y a pas des dizaines de solutions :

  • attendre qu’ils viennent spontanément d’autres responsables de sites ou de pages, grâce à la qualité du contenu ;
  • en solliciter en tant que relations de « bon voisinage » (le plus souvent en effectuant une proposition réciproque de lien : on appelle cela un échange de lien). Cette technique relève du démarchage commercial ;
  • en créer soi-même « à la main » en écrivant d’autres pages ailleurs, ou des commentaires sur des blogs comme celui-ci, des forums, etc. On commence à entrer dans la manipulation pure et simple, voire la propagande, le contenu enrobant lesdits liens ayant toutes les chances de n’avoir aucun intérêt, sinon publicitaire ;
  • en fabriquer plus ou moins automatiquement en créant des pages bidon ou en allant écrire des commentaires sur des blogs pris plus ou moins au hasard. On entre là dans les techniques de spam pur et simple. Ce blog pourtant relativement confidentiel reçoit chaque jour plusieurs dizaines de commentaires-spam, heureusement filtrés plus ou moins automatiquement. Comme son équivalent en courrier électronique, ce spam pourrit la vie des internautes.

L’expert en SEO va donc s’attacher à obtenir des liens par tout ou partie des trois dernières méthodes, suivant l’idée qu’il se fait de l’éthique. On parle de black-hat ou de white-hat (comme en sécurité informatique), comme si les choses étaient binaires, mais en la matière on devrait le plus souvent parler de tons de gris…

Parallèlement, Google, dont le succès repose largement sur la qualité de ses résultats, n’a pas envie de la voir démolie par ceux qui sauront se placer mieux que les autres indépendamment de la qualité ou de la popularité spontanée de leur contenu. Google effectue donc un sérieux travail de nettoyage de ce que chez eux aussi on appelle du spam, et n’hésite pas à descendre dans son classement les sites qui ont abusé un peu trop éhontément des méthodes « créatives » d’obtention de liens évoquées ci-dessus.

Un bon aperçu de ce que cela peut donner a été fourni hier par l’expert en référencement qui a montré son savoir-faire en établissant une page parodique pratiquement vide de contenu, mais portant quasiment le même titre que la mienne, pour la faire apparaître temporairement mieux classée dans les résultats de Google à l’aide de liens entrants obligeamment fournis par ses relations.

Facile ? Oui, comme il l’a dit lui-même, cela ne lui a pris que quelques minutes. Encore bravo à lui, et merci pour cette démonstration, qui apporte de l’eau à mon moulin en mettant en évidence la nature de la contribution à l’écosystème des experts en référencement.

Ajout : un lien très intéressant montrant les limites de PageRank et ce que l’on peut obtenir à l’extrême en SEO, avec une société aux USA qui profite des liens posés par des clients indignés pour être mieux classée et avoir encore plus de clients…

Ajout du 1er décembre 2010 : autre lien qui fait suite au précédent, qui montre que ce genre de problème ne fait pas du tout, mais alors pas du tout, rigoler Google, qui a été spectaculairement réactif sur ce coup-là. Chapeau.

Optimisation du référencement sur moteur de recherche : le SEO est-il une arnaque ?

Le dernier métier à la mode est celui de rebouteux-web, aussi appelé (expert en) SEO pour Search Engine Optimization, littéralement optimisation pour moteurs de recherche. En français on parle plutôt de référencement ; et principalement il s’agit d’être référencé sur Google, c’est à dire être bien placé dans les résultats de ce moteur, de préférence sur la première page, et idéalement en première position.

Vu la polémique provoquée par une page concernant les pratiques du SEO rédigée par Stéphane Bortzmeyer cet été, qui s’est fait violemment prendre à partie par les professionnels de la profession, j’ai souhaité effectuer une petite démonstration pour en avoir le coeur net.

La technique de base du SEO est très simple : trouver une combinaison de mots-clés qui soit à la fois en rapport avec la page à référencer, et rare (voire inexistante) dans le reste du web. Puisque Google donne lui-même dans ses résultats le nombre de pages contenant les mots-clés demandés ou des variations de ceux-ci, évaluer leur fréquence est extrêmement facile. L’utilisation de plusieurs mots-clés dans une recherche privilégie très fortement les pages qui les contiennent tous. Plus les mots clés utilisés sont rares, plus on peut limiter leur nombre. Un voire deux mots-clés très rares peuvent suffire à placer une page en première position sur Google.

C’est Google qui choisit lui-même les mots-clés pour indexer une page. Comment procède-t-il ?

  • d’abord, il utilise naturellement le texte de la page indexée.
  • ensuite, il complète par les mots trouvés dans le nom de domaine (la partie qui suit http://, jusqu’au / suivant)
  • enfin, il ajoute les mots trouvés à droite du nom de domaine, qui donnent l’adresse de la page au sein du site.

Le poids de ces différents éléments est variable, non dévoilé par Google (cela fait partie de leur sauce secrète). On peut supposer que le nom de domaine a un poids élevé, suivi par l’URL [MàJ : en fait pas tant que ça, cf les rectifications en commentaires] et le titre, les mots du contenu ayant un poids moindre, mais il existe des ajustements pour éviter que le système soit trop facilement exploitable par des spammeurs.

N’importe quelle personne rédigeant un blog apprend vite ces notions simples. Inutile d’être un « expert en SEO ».

Un court exemple valant mieux qu’un long discours, j’ai choisi quelques mots-clés pour voir si cela fonctionne. D’abord, des mots-clés liés au référencement : référencement, SEO, optimisation, arnaque, Google, moteur, recherche, web. Parmi ces mots-clés, à ce jour le plus fréquent est web (2,5 milliards d’occurrences !), le moins fréquent est moteur (66 600 occurrences seulement). Le second moins fréquent est arnaque.

Puis j’ai choisi les trois mots-clés les moins fréquents dans la liste qui précède : arnaque, optimisation, moteur pour les placer en titre de cet article. Il a fallu compléter pour que cela constitue une phrase, j’en ai profité pour utiliser d’autres mots-clés cités. Opportunément, le logiciel WordPress qui propulse ce blog utilise le texte du titre pour constituer l’URL. Rien de plus à faire de mon côté, donc.

Ensuite, j’ai choisi au hasard 3 mots dans le dictionnaire : eupatoire, contraction et dyspepsique. Ces mots sont tellement rares (notamment eupatoire) que cette page doit probablement être la seule du web (pour l’instant) à les contenir tous les trois…

Enfin, pour compléter cet essai, j’ai inventé un mot en tapant au hasard : xkvqoiikjbzrjwqdcqsd.

Vous pouvez vérifier par vous-même le classement de la page en effectuant des recherches sur des combinaisons des mots clés qui précèdent.

Tout cela, écriture de ce texte comprise, m’a pris environ 20 minutes. Évidemment, il s’agit d’un exemple simplifié, destiné à mettre en évidence les mécanismes principaux en oeuvre.

On comprend bien qu’un expert en SEO ne peut décemment pas avouer à ses clients qu’il leur facture plusieurs centaines, voire milliers d’euros, pour un travail aussi simple. Il va donc délayer la sauce avec des techniques qui, au mieux, s’apparentent plus à l’imposition des mains ou au placebo (très bien caricaturées ici), ésotériques à souhait, et au pire relèvent du spam pur et simple contre lequel Google lutte pour préserver la qualité de ses résultats. Le but est de bien montrer que le spécialiste, c’est lui, et que ses services valent le prix élevé auquel il vous les facture.

Et l’intérêt de la page, dans tout ça ? Eh bien, personne ou presque n’en parle, à part les vendeurs honnêtes de SEO, bien que cela soit le plus important au final. Cette technique étant applicable aveuglément pour être relativement bien référencé, personne ne se soucie de la qualité du contenu. Le SEO finit par devenir une fin en soi, proposée par de mauvais professionnels à de mauvais clients…

Une fois la page référencée par Google, j’ajouterai ici les mots-clés qui permettent de la faire apparaître en bonne position dans une recherche. Évidemment, ces résultats seront susceptibles de varier au fil du temps ; encore une bonne raison pour les experts en SEO de facturer leurs services de manière récurrente…

Mise à jour : voir aussi mon article complémentaire, SEO : référencement et liens entrants.

Google Buzz privacy debacle

So… as I said just 2 days ago, I tried Buzz.

And as I also said, « certainly missed a boatload of things and got some wrong ». Famous last words. How right I was !

I tried Buzz just like half the planet actually, which I didn’t realize until yesterday, when I found my Gmail account spammed by people I never heard about before, replying on my buzzes or writing buzzes I received or subscribing to my stuff.

I was panic-struck, just like the rest of the planet. That was the main theme of the comments I saw: « I’m panicking, are you? » « Oh yes I am, but who are you and how come you write this in my Buzz? ».

It somehow found the feed to this blog. I still haven’t quite figured out how; maybe that’s my fault, maybe not; anyway I validated it. I’m glad I wasn’t using Blogger, sorry but I’ve got enough knives planted in my back at the moment.

I did what everybody did yesterday evening: shut down all the incoming feeds, deleted posts and/or comments (“did I write something to my contacts that’s not for public consumption?”), tried to shut down everything outgoing, checked out all my subscribers, and tried to figure out how the damn thing decides that something should be visible or not visible, by others from me or by me from others. I’m still freaked out.

I still think this stuff makes Facebook look like amateur privacy violators by comparison. Even the quote by Eric Schmidt about privacy looks like a detail now (even though it was right-on).

The major, enormous psychological (not technical) error is that this was placed in the Gmail account; something you typically expect to be private. Putting there stuff that’s geared to be broadcast all over the place, in a opt-out way (second major error: everything is public by default, and you can’t ever revert to private after publishing, your only bet is to delete), is a tragically bad, bad, bad idea. Third error, fuzzy rules (recommendations? I’m not even sure) allowing buzzes to skip over contact boundaries.

By putting Buzz inside of Gmail, Google probably wanted to drive up adoption. Well done, it’s adopted all over the place with posts and comments and blog posts and tweet guts spilled everywhere, aggregated, resent, accessible without your knowledge. What a sorry mess. Evil? Still not sure about that. Ill-considered, that’s for sure.

Fourth, but not least, error — but is that really an error? Looks like a strategy, really –, Google confuses public availability with right-to-broadcast. My buzzes or blog posts being public does not mean that I want Google to spam these to contacts of contacts of contacts.

I’ll have to wait until the dust settles in my mind to know whether I really want to use this stuff. It’ll remain anyway as one of my most creepy experiences of late.

Already we see blog posts everywhere flowing about people who’ve unknowingly leaked private information to bosses, ex-husbands and so on. Too many to mention.

Update: Sixth error, the blocking of followers is not real security over leakage. It’s cleaning up after the fact (see the blog post linked-to above).

Update (21h41): Seventh error, and now (since when? since Buzz? No idea whatsoever, seems new since it also appears on my buzzes now) my Orkut photograph has been imported to my Gmail profile and appears to all my chat contacts. I never asked for that… it’s a photograph of me at the age of 3 months! Never meant to be visible in Gmail.

Eight error: so obvious I missed it… the followers/followee list is public by default “Display the list of people I’m following and people following me”. Which means you have a privacy leak in your contact list, since that’s where the followers come from.

This is insane. I think Google really has jumped the shark, this time. I’m out of Buzz for the foreseeable future.

Update (23h38): additional thoughts in relation to the above… Google apparently doesn’t realize that mail contacts (many kinds of people) are very different from friends in a social network; the contact or chat list may look like a friends list functionally, but they do not contain the same kind of people and do not serve the same purpose. It’s obvious if you look at  who’s in your own respective lists. A lot of confusion stems from that. Google is trying to “Facebookize” the Gmail ecosystem and the fit just can’t be good. Maybe that’s a cultural problem.

Update (0h06): an idea I just got. If the Buzz follower/followee lists actually were new lists, treated like real friends lists starting from zero (i.e. not based on any contact list, not even with a pre-filled checkbox list), with a reciprocal acknowledge just like in social networks, the user would really be more in control, with the actual feeling of starting up his own, separate network.

Google Buzz

Okay. I’ve just learned I’m the proud and lucky (thanks to my guardian angel) owner of a Google Buzz account.

What is it? Actually, I’m still trying to figure that out exactly.

Try to imagine Google Talk (chat) extended with bits of Twitter (followers and followees, but that’s not how they’re called) and geolocation, integrated within Google Mail with an interface that’s slightly reminiscent of Google Wave presented in a blogpost-like format (there has to be a RSS feed somewhere underneath, but I didn’t find it); with possible post upvoting as in Digg or Reddit (but no downvoting).

And you can also mix in stuff from Picasa, Google Reader, Twitter itself, Flickr or blogs.

The above looks like a web 2.0 keyword soup; this is a good reflection of my first impression 🙂

That’s what I was able to gather after using it for 5 minutes. I certainly missed a boatload of things and got some wrong.