Category Archives: fr

Au sujet de copwatchnord-idf.eu.org

Ce billet va être un tantinet abscons car technique, et je n’ai malheureusement pas le temps de développer… que les lecteurs veuillent bien m’en excuser. Il y aurait beaucoup à dire, des pages et des pages, mais je vais me limiter à l’essentiel.

Rapide historique

Le site copwatchnord-idf.org a défrayé la chronique cet automne car il a provoqué l’ire du ministère de l’Intérieur. Ce dernier a réussi à en obtenir le blocage sur le territoire français, obtenant aussitôt un bel effet Streisand puisque des miroirs sont apparus aussitôt après. Ce blocage a été obtenu par le blocage, par les principaux fournisseurs d’accès français, de l’adresse IP du site, qui se trouve hébergé aux États-Unis. On trouvera sur Numérama un résumé de l’affaire. Selon cet article ultérieur de Numérama, les éditeurs du site Copwatch ne s’étant pas présentés à l’audience, le tribunal n’a pas débattu de la légalité du site .

Depuis quelques jours, le site est réapparu à l’adresse https://copwatchnord-idf.eu.org/. Le 24 janvier, cela a donné matière à un article sur le site web du journal Le Point : Censuré par Claude Guéant, Copwatch revient.

Or, le domaine copwatchnord-idf.eu.org, comme son nom l’indique, a été réservé via eu.org, service que je gère depuis 1996 avec l’aide d’une équipe de bénévoles. Le domaine copwatchnord-idf.eu.org a été validé (rendu utilisable) le 5 novembre 2011.

Pour rappel, eu.org n’est pas hébergeur mais distribue des noms de domaine gratuitement. eu.org est un simple intermédiaire technique et a distribué à ce jour plus de 20 000 domaines.

Les nouvelles du jour

Des bruits laissaient entendre cet après-midi que la place Beauvau aurait dit qu’il serait pratiquement impossible d’identifier l’hébergeur de eu.org.

Mon intuition me dit que si la place Beauvau mentionne actuellement eu.org, c’est très probablement en raison de la réapparition de Copwatch.

Revenons sur les termes de l’affirmation ci-dessus :

– l’hébergeur (celui qui fournit le serveur contenant les pages web ainsi que les logiciels du service de fourniture de noms de domaine) est parfaitement identifié puisqu’il s’agit de moi-même, sur ma liaison ADSL personnelle. Je suis facilement identifiable par la base publique Whois des noms de domaine publiée par le registrar Gandi.net (pour les domaines dont il a la charge) ; de même mon fournisseur d’accès, Free, est facilement identifiable par la base Whois d’allocation des adresses IP dans laquelle figure le bloc où se trouve celle que j’utilise.

– l’hébergeur de eu.org n’a rien à voir avec les hébergeurs des 20 000 sites, dont Copwatch, délégués par eu.org via le système de noms de domaine ;

– la prestation fournie par eu.org à ses utilisateurs, dont Copwatch, n’est pas une prestation d’hébergement mais la simple fourniture (on dit délégation) d’un nom de domaine.

– les personnes responsables des domaines ainsi fournis (délégués) fournissent des informations de contact supposées sincères, dont l’exactitude n’est pas vérifiée, mais qui sont diffusées publiquement sous le nom de base Whois. Au minimum il faut que l’adresse email fournie et les serveurs de noms soient techniquement corrects au moment de la demande de délégation du domaine, sinon l’enregistrement est refusé.

Et maintenant ?

Il est probable que le ministère de l’Intérieur va demander que le site copwatchnord-idf.eu.org soit, sinon fermé proprement dit, du moins rendu inaccessible. Le site étant physiquement hébergé aux USA, il est impossible d’obtenir la coupure du serveur qui l’héberge pour la même raison qu’en octobre.

En revanche, il est possible, par exemple, que :

– le ministère demande aux fournisseurs d’accès français, de même qu’en octobre, le blocage pour les accès depuis la France de l’adresse IP du nouveau site (située chez le même hébergeur que l’ancien) ;

– ou qu’il demande à eu.org la coupure du domaine copwatchnord-idf.eu.org.

N’étant pas juriste, je ne suis pas en mesure de juger de la légalité, ni des mesures citées ci-dessus qui posent de sérieuses questions sur les libertés publiques, ni du site Copwatch lui-même.

J’espère en tout cas que l’on n’utilisera pas une bombe atomique pour atteindre la cible, comme c’est malheureusement trop souvent le cas par les temps qui courent lorsqu’Internet est concerné.

Mise à jour : article du 1er février de PcInpact sur le développement de l’affaire (et encore un autre nom de domaine pour le site : copwatchnord-idf.meta.gd). Rendez-vous le 7 février apparemment…

Mise à jour 2 février au soir : un article d’Arrêt sur images revient sur l’affaire.

 

Vidéo HD : caméscope ou appareil réflex ?

Vue la popularité croissante des appareils photo réflex permettant l’enregistrement de vidéos HD, on entend parfois affirmer qu’ils remplacent (ou vont remplacer) les caméscopes.

Pourtant, pour utiliser ces deux types d’appareils, je peux dire que les usages que j’en fais n’ont pas grand chose à voir.

Le caméscope HD :

  • dispose d’un autofocus en continu qui permet le recadrage à tout moment ;
  • possède une autonomie d’au moins 1 à 2 heures pour filmer en continu (que ce soit sur cassette magnétique ou disque dur) ;
  • dispose d’un viseur interne bien visible même en plein soleil ;
  • reste allumé jusqu’à 5 minutes en pause, entre deux prises.

L’appareil réflex souffre en partie des contraintes techniques imposées par le miroir relevable de la visée réflex :

  • nécessite généralement une mise au point fixe pendant la durée du plan, ou mise à jour au jugé avec les risques d’imprécision que cela comporte ; le capteur (donc l’ouverture) étant grand, la profondeur de champ est réduite, ce qui ne favorise pas la netteté générale, même si l’aspect “cinéma” est plaisant ;
  • préfère les plans fixes, pour la même raison ;
  • ne présente qu’un écran LCD pour la visée (le viseur optique est désactivé), ce qui s’avère extrêmement peu pratique et quasiment inutilisable au soleil ;
  • ne possède qu’une autonomie réduite : petite batterie et nécessité de conserver l’écran LCD allumé, ce qui l’oblige à s’éteindre assez rapidement lorsqu’on n’effectue pas une prise de vue (au bout de 30 secondes sur le mien)
  • en revanche, le temps de démarrage que permet l’absence de cassette ou disque est bien plus réduit.

Enfin, sur l’autonomie “en déplacement” (vacances…), les cassettes magnétiques sont imbattables : environ 2€ par heure d’enregistrement (13 Go en HDV), à comparer avec le prix des cartes mémoires.

En conclusion : non, les réflex numériques ne sont pas prêts à remplacer les caméscopes dans une utilisation loisirs/famille classique pour des prises de vue longues et peu ou pas préparées.

En revanche, ils sont pratiques pour certains usages bien précis :

  • de la prise de vue courte, “rapide et sale”, façon vidéo pour Youtube, mais de qualité : infiniment mieux que ce que l’on obtiendra avec un téléphone portable.
  • à l’extrême opposé, de la prise de vue “pro” façon cinéma avec préparation : sur trépied, plan fixe, éclairage soigné. Dans ce cadre, les contraintes dues au réflex sont parfaitement habituelles.

Ce sont les conclusions auxquelles je suis arrivé après quelques mois de cohabitation des deux systèmes. Mais la technique évoluant vite du côté des réflex, il est probable que ces conclusions seront à revoir dans quelques années.

Internet à l’Élysée : rétropédalage politique pour 2012 en sept actes

Acte I : la loi Hadopi

Les lois HADOPI 1 (Haute Autorité  pour la diffusion des œuvres et la protection des droits sur Internet) et HADOPI 2 sont bien connues aujourd’hui. Suites de la loi DADVSI, ce sont de nièmes lois de commande destinées à protéger les ayants-droit de la musique et du cinéma, établies au nom de notre exception culturelle bien française (les états-uniens, ces vilains, ont tendance à considérer ces arts comme une industrie ; chez nous ils relèvent du ministère de la Culture, qui n’a heureusement rien à voir avec de sordides problématiques pécuniaires).

Nicolas Sarkozy veut ainsi civiliser Internet. Ce sont ses mots.

Or chacun sait, dans les milieux techniques liés à l’informatique et au réseau, qu’il n’existe strictement aucun moyen d’empêcher de façon fiable la copie d’une information numérique. Chacun le sait, et chacun l’a dit et répété. Cette analyse a été présentée en annexe du rapport Olivennes-Faure, qui avait été commandé par le gouvernement de l’époque pour recommandations préalables aux lois DADVSI puis HADOPI. Il ne s’agit pas d’un tour de passe-passe idéologique visant à légitimer le piratage éhonté des contenus — que la plupart des intervenants, sur le fond, condamnent –, mais de la simple constatation d’un fait.

En outre, chacun sait, et chacun a également dit et répété, que toute mesure de filtrage sur Internet est délicate à mettre en œuvre, d’une part pour des raisons techniques, d’autre part et surtout parce qu’elle met en jeu la liberté d’expression et d’information dans nos démocraties. Au minimum, on est en droit d’espérer que l’exercice de cette censure fasse l’objet d’une procédure judiciaire en bonne et due forme.

Cela n’a pas empêché le gouvernement et le rapporteur, Franck Riester, d’ignorer superbement tous ces avertissements pour faire voter la loi Hadopi, puis la loi Hadopi version 2 suite à la censure par le Conseil Constitutionnel d’un article important, dans des circonstances rocambolesques — lire les résumés sur Wikipedia dont j’ai donné les liens en haut d’article.

L’autorité créée par cette loi, la HADOPI, a commencé réellement son activité à la rentrée 2010, pour le modeste budget de 12 millions d’euros. Elle est supposée envoyer des courriers électroniques d’avertissement, avec l’aide des fournisseurs d’accès français, aux internautes qui copieraient illégalement des œuvres, se rendant ainsi coupables de contrefaçon ; puis, s’ils persistent dans l’erreur, à couper purement et simplement leur accès à Internet, à l’exception de la télévision et de la téléphonie. On note au passage avec intérêt la hiérarchie de valeurs imprimée dans l’esprit du législateur français : seuls les moyens de communication existant depuis plus de 70 ans ont l’honneur de se voir réellement protégés. Apparemment, Internet n’est pas aussi essentiel dans la vie de tous les jours que le téléphone et la télévision. Cette distinction n’a rien d’anecdotique, elle est au contraire au cœur du problème.

À ce jour, fin 2010, les résultats de la HADOPI ne sont pas au rendez-vous (une vraie surprise…). Le piratage ne semble pas avoir sensiblement régressé ; l’activité « pédagogique » (envoi de courriers électroniques), pourtant la plus facile à mettre en œuvre, semble très largement en deçà des quotas initialement annoncés de 50.000 adresses par jour. Cela semble étonnant, mais on verra plus bas qu’il y a une excellente explication pour cela.

Fin de l’acte I.

Acte II : le rabot fiscal

Suite à la crise financière, devant la nécessité de réduire le déficit du budget de l’État, plutôt que d’essayer de réduire son train de vie (cf par exemple ci-dessus : budget Hadopi), la solution française est bien connue : inventer de nouveaux impôts, augmenter les impôts existants et supprimer les niches fiscales.

Nous avons donc pu assister au rabotage récent du statut de jeune entreprise innovante (JEI) et du Crédit Impôt-Recherche ; rabotage qui désole beaucoup de créateurs d’entreprises de technologie.

Nous allons également assister dans les jours qui viennent à la remontée, déjà votée, du taux de TVA sur les accès ADSL, et qui s’applique au 1er janvier 2011. Cette mesure irrite les fournisseurs d’accès et abonnés Internet, qui ont la désagréable impression d’être une nouvelle fois les dindons de la farce.

Acte III : Wikileaks

Là dessus, interviennent les déclarations fracassantes d’Éric Besson, à peine arrivé à l’économie numérique (en remplacement de la regrettée Nathalie Kosciusko-Morizet), souhaitant éjecter Wikileaks des serveurs français qui l’hébergent par une lettre de mission à Pascal Faure (CGIET) qui restera dans les annales. On est là en plein dans la mission « civilisatrice ».

Nouvel émoi. Rigolade (jaune) lorsqu’une fuite du conseil des ministres laisse entendre que le président a confondu Wikipedia avec Wikileaks.

Acte IV : l’annonce du déjeuner de bloggueurs influents

Le président de la République, en homme de dialogue, bien conseillé par son entourage et manifestement conscient de la grogne et de la gêne grandissantes dans un secteur d’avenir qui lui tient particulièrement à cœur (au moins en discours), a cherché a renouer le contact en invitant quelques « personnalités » de l’Internet français pour un déjeuner informel à l’Élysée, le jeudi 16 décembre.

Et là, les choses deviennent très intéressantes pour qui veut s’informer sur le fonctionnement de notre démocratie, les pratiques de nos hommes politiques et la constitution de microcosmes, voire de connivences.

La liste des personnes invitées a été publiée :

  • Xavier Niel, fondateur d’Iliad et patron de Free ;
  • Jean-Michel Planche, fondateur d’Oléane et président de Witbe ;
  • Daniel Marhely, président de Deezer ;
  • Maître Eolas, blogueur et avocat ;
  • Nicolas Vanbremeersch, blogueur (Meilcour.fr, ex-Versac) et fondateur de Spintank ;
  • Eric Dupin, blogueur (Presse Citron) ;
  • Jacques-Antoine Granjon, président de vente-privée.com ;
  • Jean-Baptiste Descroix-Vernier, directeur de Rentabiliweb.

Un choix varié, entrepreneurs comme « blogueurs » relativement connus, qui n’ont pas dû se faire prier : quand on a l’honneur d’être invité à l’Élysée par le président de la République, en général, on y va ; ou on explique comme l’a très bien fait Korben pourquoi on a de très bonnes raisons de refuser.

Acte V : le passage de la loi LOPPSI

Par un amusant hasard du calendrier parlementaire, c’est la nuit précédant le repas suscité qu’a été votée en 2e lecture à l’assemblée la loi LOPPSI sous la férule de Brice Hortefeux et de Éric Ciotti. Chacun pouvait assister à sa retransmission en direct sur le site Internet de l’assemblée. Dans un hémicycle quasiment vide en fin de soirée, on pouvait voir les rares députés présents rejeter en bloc les amendements de bon sens proposés, y compris ceux provenant de députés UMP comme Laure de la Raudière ou Lionel Tardy. Sans parler évidemment de ceux des très rares députés d’opposition présents, Patrick Braouzec et Patrick Bloche. Un processus similaire à celui de l’adoption de la loi HADOPI, avec un résultat qui laisse à désirer pour les mêmes raisons : adoption du filtrage d’Internet vis à vis des contenus pédopornographiques sur simple décision administrative, sans intervention d’un juge, sans même la moindre transparence sur les sites visés. Préférence pour la censure des contenus plutôt que pour l’action contre les actes répréhensibles : la définition même de la tartuferie.

En somme, on préfère l’affichage médiatique de petits bras musclés plutôt que l’efficacité, comme dans le cas d’HADOPI.

Il ne faut probablement pas attendre grand chose du passage en 2e lecture au sénat pour améliorer la loi, il ne reste donc plus que le conseil constitutionnel.

Acte VI : le déjeuner

Le décor est posé, les lois sont quasiment votées dans leur ensemble d’une manière irréversible à court terme. Le moment est donc idéal pour que le président de la République, à l’approche de l’échéance électorale de 2012, puisse afficher la volonté de dialogue qui a toujours caractérisé son action. En effet, un calcul rapide permet de constater que les internautes échaudés par HADOPI et LOPPSI sont probablement un petit peu plus nombreux que les ayants-droit comme Johnny Hallyday, ses collègues et leurs producteurs. Transposé en voix aux élections de 2012, cela pourrait se traduire par un sérieux handicap pour le parti du président.

Cela serait encore plus fâcheux si l’HADOPI prenait sa pleine puissance d’envoi de courriers pédagogiques, se transformant par là même en arme de destruction massive de voix pour l’UMP.

C’est donc là que nous entrons de plain-pied dans la haute politique pré-électorale.

Quatre convives ont fait des compte-rendus directs ou indirect du repas, les voici. Je vous invite à les lire car il est difficile de les paraphraser :

On trouve également les traditionnelles photos sur le perron.

Les déjeuners à l’Élysée ne sont pas rares, mais, fait notable, c’est sans doute la première fois que l’on peut en lire plusieurs compte-rendus aussi directs, qui ne sont pas passés par le filtre aseptisant des médias classiques. Il est ainsi possible d’entrevoir les avis divergents, les points communs, le tout dans une grande transparence, dont on peut très sincèrement remercier les intéressés.

Acte VII : le Conseil

Pour résumer, le président veut établir un dialogue et, pour cela, propose en particulier d’établir une sorte de Conseil National du Numérique (pas forcément sous ce nom), qui était déjà dans les cartons après la fermeture des quelques instances similaires l’ayant précédé. Faire et défaire…

Outre l’opportunisme de la démarche, déjà noté ci-dessus ainsi que dans certains compte-rendus, on peut voir là le réflexe classique de l’homme politique lorsqu’il perd pied : créer une instance « représentative » (il ne s’agit pas forcément qu’elle soit réellement représentative, mais il faut quand même qu’elle en ait l’air). Cela permet :

  • d’établir un dialogue, au moins apparent, ce qui est d’autant plus essentiel qu’en fait la messe est dite et les lois déjà  votées — en entreprise, on appelait cela le management participatif ;
  • de se débarrasser des patates chaudes en les déléguant ;
  • d’avoir un fusible à faire sauter en cas de problème, par remplacement, comme dans un gouvernement ;
  • de déléguer la communication des mauvaises nouvelles en utilisant éventuellement les titulaires de la fonction comme cautions morales en fonction de l’aura qu’ils ont pu acquérir par ailleurs dans une vie antérieure ;
  • de montrer qu’on agit pour résoudre les problèmes ;
  • de distribuer des postes honorifiques à des gens méritants, compétents ou populaires — en en faisant, le cas échéant et s’ils ne le sont déjà, des obligés, dans un classique échange de bons procédés ;
  • éventuellement — l’improbable n’est jamais exclu –, d’avancer réellement.

Ce type de mécanisme est parfaitement connu, bien rodé et largement pratiqué. Il peut même fonctionner si les objectifs stratégiques sont clairement établis, ce qui est souvent le cas lorsqu’à l’extrême on souhaite calmer ou satisfaire tel ou tel lobby.

Mais dans le cas du numérique ? Que recouvre ce mot, d’ailleurs ? Et même si on se limite à Internet ?

L’écosystème d’Internet n’est pas homogène au même titre que l’industrie musicale, et ne peut donc pas constituer un lobby, même au sens noble du terme.

Internet est un croisement bizarre entre la technologie informatique, l’anarchie et l’esprit d’entreprise, mélange hétérogène difficile à appréhender pour les hommes politiques, et à plus forte raison par ceux qui n’y mettent pas les pieds.

Internet étant une agglomération d’intérêts variés et souvent divergents (particuliers de tous milieux et de tous âges, fournisseurs d’accès « purs » ou telcos reconvertis tant bien que mal, éditeurs de contenus, fabricants de matériel, universitaires, chercheurs, commerçants, PME…, en somme des citoyens de toutes origines), il semble difficile de le faire représenter en tant que tel ; problématique qui s’est déjà présentée, à plus petite échelle et de manière beaucoup plus informelle, pour le choix des convives à inviter…

Épilogue

En conclusion, la chose qui me semble évidente est que la création d’un tel conseil serait, avant tout, un bel aveu d’impuissance de la part du pouvoir politique. C’est l’ensemble des mœurs et mentalités politiques françaises qui doit être rénové et modernisé, adapté au numérique et à Internet, plutôt que l’inverse. La conclusion de Versac (paragraphe titré “manque d’ambitions”…) me semble bien résumer la question et aller dans un sens intelligent. Et comme le dit Jean-Michel Planche : on n’est pas à l’abri d’un coup de chance.

Quant à la malheureuse HADOPI, on voit qu’elle est coincée entre le marteau-ayants-droit et l’enclume-UMP-2012. S’il était facile de voter une loi d’affichage pour satisfaire les premiers, il va être plus difficile de jouer la montre pendant encore 18 mois pour envoyer le moins possible de courriers pédagogiques. D’ailleurs, aux dernières nouvelles, il semblerait que les ayants-droit commencent à découvrir la nature du problème…

Mise à jour du 21 décembre 2010 : Nicolas Sarkozy, le retour du candidat numérique (tout un programme), point de vue de Pierre Chappaz sur le déjeuner, et sur l’annonce officielle d’Éric Besson de ce jour (création du CNN, …).

Petite expérience de DNS et de Twitter avec wikileaks

On a tout à fait le droit de ne pas partager à 100 % les idées et les procédés de Wikileaks, actuellement sur le devant de l’actualité, et certaines de ces critiques sont légitimes. Mais, a contrario, certains des procédés utilisés pour les faire taire ont un petit parfum qui, à titre personnel, me dérange.

L’expérience du jour : wikileaks.org ayant vu son DNS coupé par son hébergeur (problèmes d’attaques, officiellement), les discussions de ce matin sur Twitter consistaient à s’échanger “à la main” les adresses IP des miroirs… pas très pratique. Cette coupure de DNS fait suite à un déplacement du site de chez Amazon, aux USA, vers OVH, un hébergeur français.

Et puis j’ai fait une proposition toute bête qui a bien décollé et j’ai créé wikileaks.eu.org pour accomplir ma part, merci à tous ceux qui ont suivi et qui ont été ajoutés dans cete liste plus générale (section “miroirs DNS”).

Jean-Michel Planche ayant pris la peine de faire un résumé du contexte, je ne vais pas le paraphraser, allez voir son billet.

Voir aussi la lettre de mission d’Éric Besson (à Pascal Faure du CGIET) divulguée par LePost, qui vaut franchement le déplacement. Pour résumer, Éric Besson cherche un moyen d’expulser le site de France.

Un autre billet général chez Authueil sur la censure en général et celle de Wikileaks en particulier résume bien la question.

Et un article d’Écrans (Libération) résume bien la situation à l’exception d’une erreur : FDN n’héberge pas un miroir de Wikileaks, wikileaks.fdn.fr est juste un renvoi DNS suivant la méthode exposée ci-dessus.

Désolé pour ce billet un peu décousu mis à jour au fur et à mesure…

Mise à jour 18h45 : c’est maintenant le nom wikileaks.ch actif depuis ce matin qui est en carafe…

Mise à jour 4 décembre 2h35 : une liste plus complète chez Bluetouff.

IPv4 est presque mort

Les statistiques d’épuisement des adresses IPv4 libres indiquent actuellement 91 jours de « stock » dans les registres régionaux, soit un épuisement début mars 2011.

En fait il s’agit d’un épuisement « au plus tard » car le rythme d’allocation a une nette tendance à l’accélération : le 14 juillet 2010 (date mémorable du plantage de france.fr le jour même de son lancement), le compteur indiquait 365 jours soit un épuisement tombant le 14 juillet 2011.

Autrement dit, certains ont déjà commencé à paniquer et stockent des adresses en douce. Mise à jour : Stéphane Bortzmeyer me signale que la raison en est que 5 plages d’adresses n’avaient pas été prises en compte dans les statistiques. Article plus détaillé signalé sur Twitter par @nkgl.

Le temps que les adresses des registres régionaux (continentaux) « percolent » jusqu’aux allocataires (les sites utilisateurs), il y aura environ un an de répit.

Ensuite, les seules adresses faciles à obtenir étant les adresses IPv6, les premiers sites accessibles seulement en IPv6 commenceront à apparaître.

Autrement dit, il ne suffit pas d’avoir déjà sa petite adresse IPv4 pour se sentir non concerné. Internet va inévitablement perdre pendant quelques années sa connectivité complète, les inévitables sites en IPv6-seul ne pourront plus joindre les sites en IPv4-seul tant que ces derniers ne seront pas passés à IPv6 eux aussi. On peut simplement espérer que cette période transitoire durera le moins longtemps possible. Il est probable que de nombreux vendeurs d’huile de serpent et de technologies de semi-transition plus ou moins bancales vont apparaître, dans la lignée du bug « an 2000 ».

J’invite les non-convaincus qui se disent que rien ne presse à lire l’excellent article en anglais de Geoff Huston qui démonte quelques mythes tenaces..

SEO : référencement et liens entrants

Mon billet d’hier sur les experts SEO a eu un succès certain (plus de 1000 visites à ce jour), principalement grâce à un grand nombre de citations sur Twitter. Suite à certains commentaires et après avoir consulté les explications données par certains experts en référencement sur leur propre site, je pense utile de compléter mes explications par quelques considérations sur le système des « liens entrants », aussi appelés « backlinks ».

Google utilise, comme évoqué hier, l’analyse du contenu d’une page pour lui associer des mots clés. Mais l’invention principale de Google, qui lui a permis une bien meilleure qualité de recherche, a été de prendre en compte également les références aux pages indexées faites depuis d’autres pages, établissant un système de pondération appelé PageRank, et ouvertement inspiré du système d’évaluation de l’influence des publications scientifiques (H-number).

Il est donc très efficace pour un site qui souhaite être mieux placé dans les résultats de recherche d’obtenir des liens entrants provenant d’autres sites.

Et c’est là que les choses commencent à se gâter. Car pour obtenir des liens, il n’y a pas des dizaines de solutions :

  • attendre qu’ils viennent spontanément d’autres responsables de sites ou de pages, grâce à la qualité du contenu ;
  • en solliciter en tant que relations de « bon voisinage » (le plus souvent en effectuant une proposition réciproque de lien : on appelle cela un échange de lien). Cette technique relève du démarchage commercial ;
  • en créer soi-même « à la main » en écrivant d’autres pages ailleurs, ou des commentaires sur des blogs comme celui-ci, des forums, etc. On commence à entrer dans la manipulation pure et simple, voire la propagande, le contenu enrobant lesdits liens ayant toutes les chances de n’avoir aucun intérêt, sinon publicitaire ;
  • en fabriquer plus ou moins automatiquement en créant des pages bidon ou en allant écrire des commentaires sur des blogs pris plus ou moins au hasard. On entre là dans les techniques de spam pur et simple. Ce blog pourtant relativement confidentiel reçoit chaque jour plusieurs dizaines de commentaires-spam, heureusement filtrés plus ou moins automatiquement. Comme son équivalent en courrier électronique, ce spam pourrit la vie des internautes.

L’expert en SEO va donc s’attacher à obtenir des liens par tout ou partie des trois dernières méthodes, suivant l’idée qu’il se fait de l’éthique. On parle de black-hat ou de white-hat (comme en sécurité informatique), comme si les choses étaient binaires, mais en la matière on devrait le plus souvent parler de tons de gris…

Parallèlement, Google, dont le succès repose largement sur la qualité de ses résultats, n’a pas envie de la voir démolie par ceux qui sauront se placer mieux que les autres indépendamment de la qualité ou de la popularité spontanée de leur contenu. Google effectue donc un sérieux travail de nettoyage de ce que chez eux aussi on appelle du spam, et n’hésite pas à descendre dans son classement les sites qui ont abusé un peu trop éhontément des méthodes « créatives » d’obtention de liens évoquées ci-dessus.

Un bon aperçu de ce que cela peut donner a été fourni hier par l’expert en référencement qui a montré son savoir-faire en établissant une page parodique pratiquement vide de contenu, mais portant quasiment le même titre que la mienne, pour la faire apparaître temporairement mieux classée dans les résultats de Google à l’aide de liens entrants obligeamment fournis par ses relations.

Facile ? Oui, comme il l’a dit lui-même, cela ne lui a pris que quelques minutes. Encore bravo à lui, et merci pour cette démonstration, qui apporte de l’eau à mon moulin en mettant en évidence la nature de la contribution à l’écosystème des experts en référencement.

Ajout : un lien très intéressant montrant les limites de PageRank et ce que l’on peut obtenir à l’extrême en SEO, avec une société aux USA qui profite des liens posés par des clients indignés pour être mieux classée et avoir encore plus de clients…

Ajout du 1er décembre 2010 : autre lien qui fait suite au précédent, qui montre que ce genre de problème ne fait pas du tout, mais alors pas du tout, rigoler Google, qui a été spectaculairement réactif sur ce coup-là. Chapeau.

Optimisation du référencement sur moteur de recherche : le SEO est-il une arnaque ?

Le dernier métier à la mode est celui de rebouteux-web, aussi appelé (expert en) SEO pour Search Engine Optimization, littéralement optimisation pour moteurs de recherche. En français on parle plutôt de référencement ; et principalement il s’agit d’être référencé sur Google, c’est à dire être bien placé dans les résultats de ce moteur, de préférence sur la première page, et idéalement en première position.

Vu la polémique provoquée par une page concernant les pratiques du SEO rédigée par Stéphane Bortzmeyer cet été, qui s’est fait violemment prendre à partie par les professionnels de la profession, j’ai souhaité effectuer une petite démonstration pour en avoir le coeur net.

La technique de base du SEO est très simple : trouver une combinaison de mots-clés qui soit à la fois en rapport avec la page à référencer, et rare (voire inexistante) dans le reste du web. Puisque Google donne lui-même dans ses résultats le nombre de pages contenant les mots-clés demandés ou des variations de ceux-ci, évaluer leur fréquence est extrêmement facile. L’utilisation de plusieurs mots-clés dans une recherche privilégie très fortement les pages qui les contiennent tous. Plus les mots clés utilisés sont rares, plus on peut limiter leur nombre. Un voire deux mots-clés très rares peuvent suffire à placer une page en première position sur Google.

C’est Google qui choisit lui-même les mots-clés pour indexer une page. Comment procède-t-il ?

  • d’abord, il utilise naturellement le texte de la page indexée.
  • ensuite, il complète par les mots trouvés dans le nom de domaine (la partie qui suit http://, jusqu’au / suivant)
  • enfin, il ajoute les mots trouvés à droite du nom de domaine, qui donnent l’adresse de la page au sein du site.

Le poids de ces différents éléments est variable, non dévoilé par Google (cela fait partie de leur sauce secrète). On peut supposer que le nom de domaine a un poids élevé, suivi par l’URL [MàJ : en fait pas tant que ça, cf les rectifications en commentaires] et le titre, les mots du contenu ayant un poids moindre, mais il existe des ajustements pour éviter que le système soit trop facilement exploitable par des spammeurs.

N’importe quelle personne rédigeant un blog apprend vite ces notions simples. Inutile d’être un « expert en SEO ».

Un court exemple valant mieux qu’un long discours, j’ai choisi quelques mots-clés pour voir si cela fonctionne. D’abord, des mots-clés liés au référencement : référencement, SEO, optimisation, arnaque, Google, moteur, recherche, web. Parmi ces mots-clés, à ce jour le plus fréquent est web (2,5 milliards d’occurrences !), le moins fréquent est moteur (66 600 occurrences seulement). Le second moins fréquent est arnaque.

Puis j’ai choisi les trois mots-clés les moins fréquents dans la liste qui précède : arnaque, optimisation, moteur pour les placer en titre de cet article. Il a fallu compléter pour que cela constitue une phrase, j’en ai profité pour utiliser d’autres mots-clés cités. Opportunément, le logiciel WordPress qui propulse ce blog utilise le texte du titre pour constituer l’URL. Rien de plus à faire de mon côté, donc.

Ensuite, j’ai choisi au hasard 3 mots dans le dictionnaire : eupatoire, contraction et dyspepsique. Ces mots sont tellement rares (notamment eupatoire) que cette page doit probablement être la seule du web (pour l’instant) à les contenir tous les trois…

Enfin, pour compléter cet essai, j’ai inventé un mot en tapant au hasard : xkvqoiikjbzrjwqdcqsd.

Vous pouvez vérifier par vous-même le classement de la page en effectuant des recherches sur des combinaisons des mots clés qui précèdent.

Tout cela, écriture de ce texte comprise, m’a pris environ 20 minutes. Évidemment, il s’agit d’un exemple simplifié, destiné à mettre en évidence les mécanismes principaux en oeuvre.

On comprend bien qu’un expert en SEO ne peut décemment pas avouer à ses clients qu’il leur facture plusieurs centaines, voire milliers d’euros, pour un travail aussi simple. Il va donc délayer la sauce avec des techniques qui, au mieux, s’apparentent plus à l’imposition des mains ou au placebo (très bien caricaturées ici), ésotériques à souhait, et au pire relèvent du spam pur et simple contre lequel Google lutte pour préserver la qualité de ses résultats. Le but est de bien montrer que le spécialiste, c’est lui, et que ses services valent le prix élevé auquel il vous les facture.

Et l’intérêt de la page, dans tout ça ? Eh bien, personne ou presque n’en parle, à part les vendeurs honnêtes de SEO, bien que cela soit le plus important au final. Cette technique étant applicable aveuglément pour être relativement bien référencé, personne ne se soucie de la qualité du contenu. Le SEO finit par devenir une fin en soi, proposée par de mauvais professionnels à de mauvais clients…

Une fois la page référencée par Google, j’ajouterai ici les mots-clés qui permettent de la faire apparaître en bonne position dans une recherche. Évidemment, ces résultats seront susceptibles de varier au fil du temps ; encore une bonne raison pour les experts en SEO de facturer leurs services de manière récurrente…

Mise à jour : voir aussi mon article complémentaire, SEO : référencement et liens entrants.

Master Classes de Ruggero Raimondi avec Don Giovanni

Un peu de culture, pour changer. Je vous le promets, ce n’est qu’accidentel et indépendant de ma volonté, c’était juste trop beau pour que je me retienne d’en parler.

J’ai été invité hier soir aux « Master Classes » de Ruggero Raimondi à la salle Gaveau.

Il s’agit d’un cours donné à de jeunes chanteurs très talentueux répétant des scènes de Don Giovanni, sous les conseils du maître prodigués en direct. La particularité de l’expérience est qu’elle est réalisée devant le public, c’est ce qui la rend exceptionnelle. Toute la session a été filmée par et pour une émission d’Alain Duault qui passera sur France 3 à la rentrée (douze heures de rushes prises pendant 2 jours de répétition, une heure d’émission).

Magnifique.

Je vous conseille (non, je vous ordonne) de surveiller le passage de l’émission. Pas la peine d’être un grand fan d’opéra, ni d’être expert en chant ou en musique classique, pour apprécier. Il suffit d’aimer le chant, la musique (soigner la sortie son de la télévision, fermer les écoutilles pour ne pas être dérangé), et le théatre… et de se laisser porter par la magie. Placement des acteurs, pauses dans le chant, rythme, gestes, sentiments… la scène, partie de rien, est façonnée et prend vie en quelques minutes sous nos yeux. C’est captivant. C’est aussi une superbe initiation à l’opéra.

Pour les amis des comédies musicales du théatre anglais de l’ENST, ça n’a absolument rien à voir et pourtant c’est exactement la même chose.

Pour ceux qui auraient voulu y assister sur place : trop tard malheureusement… mais surveillez la programmation future de la salle Gaveau, un futur cours est envisagé sur La Traviata.