Category Archives: divers

Pourquoi j’ai piraté ma propre imprimante et ses cartouches officielles

Tout a commencé en septembre 2017 par un banal achat d’imprimante laser couleur. Il nous fallait une imprimante utilisable facilement ailleurs que sous Windows, idéalement en réseau pour éviter des allées et venues entre ordinateurs, et recto-verso. De préférence, connaissant les formats Postscript ou PDF pour éviter d’avoir à réaliser des conversions. La plupart de ces fonctions sont réalisables par logiciel pour compenser leur absence, mais c’est toujours plus compliqué à mettre en œuvre.

Par ailleurs, nous souhaitions une imprimante laser au lieu d’une jet d’encre. Ces dernières ne sont pas particulièrement moins chères, et sont moins fiables (l’encre sèche avec le temps), alors que nous imprimons assez peu. Je pensais aussi échapper aux restrictions d’usage qui touchent les cartouches jet d’encre et permettent de les vendre à prix fort, pensant naïvement que les cartouches de toner en étaient exemptes.

Bref, nous trouvons rapidement un modèle qui coche toutes les cases à un prix intéressant, un peu moins de 110 €. Appelons-la modèle 310.

C’est une imprimante très ressemblante mais d’un modèle différent que nous recevons. Appelons-la 317. La 317 est identique à la 310, à un petit détail près : elle a l’option wifi, qui ne nous intéresse pas du tout. Mais ça ne semble pas gênant de l’avoir.

L’imprimante est munie de 4 cartouches d’encre d’origine : noir, magenta, cyan, jaune. Elles sont censées permettre l’impression d’environ 1500 pages, contrairement aux cartouches vendues ensuite, prévues pour 3000 pages. Leur format étant identique, les cartouches d’origine ne sont donc pas remplies complètement. Le coût par page de l’imprimante neuve avec cartouches est ainsi relativement comparable au coût par page des 4 cartouches de remplacement. Le constructeur souhaite probablement s’assurer qu’on ne commandera pas une imprimante neuve complète lorsque vient le moment de changer les cartouches d’origine.

Passent alors quelques mois d’utilisation sans histoire, jusqu’à la fin 2018, principalement en noir et blanc. Nous approchons de l’épuisement de la cartouche magenta, gentiment signalé à l’avance par l’imprimante.

Nous commandons donc des cartouches de remplacement du constructeur, profitant d’une offre groupée à prix « d’ami » incluant les 4 couleurs. Nous les stockons en attente d’utilisation, le temps que la cartouche magenta d’origine arrive effectivement à bout, ce qui prendra 4 ou 5 mois.

« Et là, c’est le drame. »

L’imprimante ne reconnaît pas la cartouche magenta de remplacement, produisant une erreur cryptique et refusant catégoriquement d’imprimer, même en noir et blanc.

Tout naturellement nous appelons donc l’assistance de la marque en France, qui investigue pour m’expliquer, en substance, que tout cela est de ma faute : mon modèle est le 317, or j’ai commandé des cartouches pour le modèle 310. Il est donc tout à fait « normal » que cela ne fonctionne pas. J’aurais dû faire attention. Je peux m’adresser au vendeur des cartouches pour demander un échange.

De son côté, le vendeur des cartouches — nous avions, autre erreur, privilégié un commerçant du sud de la France pour éviter d’engraisser une grande plateforme de vente en ligne — explique qu’au titre de ses conditions de vente il ne peut réaliser d’échange, même de cartouches neuves non déballées, car notre commande date de plus de 3 mois (puisque nous nous y étions pris à l’avance).

Nous voilà donc avec une imprimante totalement inutilisable à moins de payer à nouveau au moins une cartouche magenta (environ 150-170 €), et 450 € de cartouches inutilisables, potentiellement revendables sur e-bay avec les complications associées, une perte de valeur pour nous, et un risque pour l’acheteur.

Pour la petite histoire, la présence d’une cartouche vide empêche également toute mise à jour logicielle de l’imprimante.

En faisant quelques recherches en ligne, je découvre que des commerçants chinois revendent des circuits (chips) de remplacement pour les cartouches, classés par couleur d’encre, modèle d’imprimante, nombre de pages le cas échéant, et zone géographique.

Ici un petit aparté sur la notion de zone géographique pour imprimante. D’après l’assistance du fabricant, il s’agit de fournir du toner optimisé pour la région où il est utilisé, afin d’être adapté aux conditions climatiques locales (hygrométrie, température).

On pourra juger de cette promesse en constatant sur cette image que la Russie et toute l’Afrique sont dans la même zone, ainsi que l’Espagne et le Groenland, ou encore le sud des États-Unis et le grand nord du Canada. En revanche, cette politique commerciale permet d’appliquer des tarifs et circuits de distribution différenciés par continent.

J’ai donc commandé sur Aliexpress, en Chine, les circuits de remplacement “zone Europe”, pour chacune des 4 couleurs, pour le modèle d’imprimante 317.

Ces circuits sont normalement prévus pour recharger des cartouches avec du toner “compatible” (bien moins cher). Je dois être l’un des rares à m’en être servi sur des cartouches constructeur neuves. La somme est modique (15 € par circuit), le risque financier est donc minime même si l’opération échoue, et la manipulation est simple : 2 vis à ôter, le chip à remplacer, on revisse et c’est reparti.

Cet hiver j’avais remplacé le chip de la cartouche magenta, ce qui m’a permis d’utiliser à nouveau l’imprimante après presque 1 an de panne sans trop savoir comment s’en sortir. Je viens de remplacer le chip et la cartouche noire. On note sur l’emballage (photo ci-dessous) la mention du nombre de pages (3K), de la couleur (BK = black, noir), et de la zone géographique (EUR).

Addendum technique : les circuits ci-dessus sont interfacés avec l’imprimante par le protocole I2C, très courant dans le petit matériel électronique. Il est possible, dans une certaine mesure, de les reprogrammer par ce protocole pour changer les paramètres (autre couleur, autre imprimante, autre zone géographique, remise à zéro du compteur), et on trouve sur le web des instructions d’électroniciens à cet effet. C’est de ce type d’instructions que se servent les vendeurs de chips “pirates”. Dans certains cas, il est impossible de reprogrammer un circuit qui est arrivé au bout du nombre de pages. J’ai essayé ces procédés avec un Raspberry — car celui-ci comporte une interface I2C — sur les circuits “constructeur”, mais sans succès. J’aurai peut-être plus de résultats avec les circuits commandés en Chine.

Les imprimantes considérées ici sont les Lexmark CS310dn (sans wifi) et CS317dn (avec wifi), mais il existe énormément d’autres marques connues qui pratiquent le même genre de procédé : HP, Epson, Ricoh, Samsung, etc. L’objet de ce texte était surtout de montrer les complications que cela implique pour des usages légitimes, ces restrictions n’étant bien entendu jamais explicitées lors de l’acquisition.

La sobriété numérique, oui mais pour quoi faire ?

Avertissement ajouté le 17/7/2020 : l’objet de ce billet n’est pas de nier l’impact environnemental du numérique, mais d’étudier la pertinence des injonctions à la limitation de notre volume de données.

La facturation au volume, ou la limitation des abonnements Internet, vieux serpent de mer des réseaux numériques depuis des décennies et rêve de certains opérateurs, fait aujourd’hui sa réapparition sous la motivation de la défense de l’environnement, notamment via un rapport récent du sénat, suivi d’un rapport similaire du Conseil national du numérique. Ces rapports s’appuient notamment sur ceux du Shift Project de 2018 et 2019 sur la sobriété numérique ; ces derniers ont vu certains de leurs éléments critiqués en raisons d’erreurs manifestes (surévaluations des empreintes).

Suite à de nombreuses discussions notamment sur les réseaux sociaux, lectures de rapports et études, etc, depuis 2 ans, je voulais poser ici quelques arguments mis en forme pour éviter d’avoir à les réécrire ici et là.

L’affirmation principale qui sous-tend l’idée de limiter notre consommation de données est que l’explosion des volumes provoquerait une explosion de la consommation électrique. Cet argument est également cité pour mettre en doute la pertinence du déploiement de la 5e génération (5G) de téléphonie mobile.

Nous allons voir qu’en fait, l’essentiel de la consommation électrique des réseaux est constitué par le fonctionnement de l’infrastructure, indépendamment de la quantité de données.

Si vous n’avez pas envie de lire les détails de ce billet, vous pouvez vous contenter de “Et le réseau mobile” et “Faut-il vraiment réduire notre consommation de données ?”, en complétant si nécessaire par “La puissance et l’énergie” pour les notions d’électricité.

La puissance et l’énergie

Pour commencer, quelques rappels de notions électriques fondamentales pour mieux comprendre les chiffres que l’on voit circuler ici et là, et leurs ordres de grandeur.

Le Watt est l’unité de puissance électrique. C’est une valeur “instantanée”. Pour éclairer correctement vos toilettes, vous aurez besoin de moins de puissance que pour illuminer un monument comme la tour Eiffel. Un four électrique, un grille pain ou un radiateur engloutissent aux alentours de 1500 à 2500 watts. Un téléphone mobile, moins de 5 watts. Comme la quasi totalité de la consommation électrique passe en effet Joule, tout objet usuel qui consomme de manière significative émet de la chaleur. C’est un moyen très simple de s’assurer qu’un objet ne consomme pas beaucoup d’électricité : il ne chauffe pas de manière sensible (c’est un peu différent pour des moteurs électriques, mais cela reste vrai pour des ampoules).

Le Watt.heure, Wh (ou son multiple le kilowatt.heure, kWh) est une unité d’énergie. Si vous vous éclairez pendant 2 heures au lieu d’une heure, la consommation d’énergie sera doublée. Et en mettant deux ampoules, vous consommerez en une heure ce qui aurait pris deux heures avec une simple ampoule.

Le fournisseur d’électricité compte donc les kWh pour la facturation. Il calibre également le compteur pour une limite (en Watts) à la puissance appelable à un moment donné. C’est une limitation de débit. Cela peut vous empêcher de faire tourner à la fois le four électrique et le chauffe-eau, gros consommateurs d’électricité, mais ça ne vous interdit pas de les utiliser l’un après l’autre.

Une batterie, que ce soit de téléphone ou de voiture (électrique ou non) stocke de l’énergie et voit donc sa capacité exprimée en watts.heure. On peut aussi l’indiquer en ampères.heure. Dans ce cas, il faut multiplier cette dernière valeur par la tension nominale (volts) pour obtenir la capacité équivalente en watts.heure.

On voit passer parfois, au fil des articles, des “kilowatts par an” ou “mégawatts par heure”. Ces unités n’ont pas de sens physique directement utile. Elles indiquent en général une erreur.

Comment vérifier des consommations d’appareils électriques

Il est facile de vérifier soi-même la consommation des appareils électriques usuels avec un “consomètre”. Ainsi, vous n’aurez pas à prendre pour argent comptant ce qu’on affirme ici ou là. On en trouve pour moins de 15 €. Les modèles auto-alimentés (sans pile) sont en général préférables, évitent la corvée de piles et sont donc plus respectueux de l’environnement, mais peuvent perdre la mémoire en cas de coupure. Ces appareils permettent aussi bien de mesurer la consommation instantanée (la puissance, en W) que l’énergie utilisée sur une certaine durée (en kWh donc), pour les appareils qui ont une consommation fluctuante (par exemple, un frigo ne se déclenche que pour refaire un peu de froid quand c’est nécessaire).

Commençons par un objet courant, le point d’accès wifi.

TP-Link Routeur WiFi N450 Vitesse sans fil jusqu’à 300 Mbps,Dual-band, 5 ports (Ethernet 4 ports ), 2 antennes externes, Support contrôle parental, TL-WR940N

Un point d’accès wifi de ce type, allumé, consomme environ 4 watts, tout le temps, indépendamment de son utilisation. Côté antenne wifi, la législation en France interdit une émission d’une puissance supérieure à 100 mW. Autrement dit, la consommation due à la transmission par l’antenne est au grossièrement (pour simplifier, car l’électronique interne sera également un peu plus sollicitée) 2,5 % de la consommation totale de la borne. L’interface ethernet (filaire) consomme un peu d’électricité elle aussi, mais celle-ci dépend de la longueur du câble plus que du volume de données transmis. Certaines bornes disposent ainsi d’un mode “vert” pour réduire la consommation électrique dans un environnement personnel, où les câbles mesurent quelques dizaines de mètres au maximum, plutôt que 100 mètres.

La différence de consommation entre une borne qui émet au maximum de sa capacité et une borne allumée sans aucun trafic sera donc au maximum de 2,5 %. En tout cas, il faut être conscient que diviser par 2 sa propre consommation de données ne divisera pas par 2 la consommation électrique associée, ni chez soi, ni ailleurs. Il est très facile avec un consomètre de le vérifier par soi-même pour la partie à domicile.

La box Internet

Les mêmes remarques s’appliquent à votre box d’accès Internet. Celle-ci va avoir, comme un point d’accès wifi, une ou plusieurs prises ethernet, et un accès au réseau de l’opérateur : aujourd’hui ADSL, VDSL ou fibre.

L’ARCEP a publié en 2019 un rapport sur l’impact carbone des accès à Internet. D’après un des acteur interrogés, “la fibre consomme en moyenne un peu plus de 0,5 Watt par ligne, soit trois fois moins que l’ADSL (1,8W) et quatre fois moins que le RTC [réseau téléphonique classique] (2,1W) sur le réseau d’accès”. Ces estimation de consommation ne varient pas du tout en fonction du volume transmis. En effet l’ADSL comme la fibre ont besoin d’émettre en permanence, que beaucoup ou peu de données soient transmises.

On voit aussi les progrès sensibles accomplis au fil des générations technologiques, puisque la consommation fixe décroît alors que le débit disponible augmente.

Par ailleurs, comme avec la borne wifi, la partie concernant la transmission longue distance présente une consommation marginale par rapport à celle de la box qui représente aux alentours de 10 à 30 watts suivant les générations. Les opérateurs travaillent d’ailleurs à la réduction de cette consommation, car elle devient un argument commercial.

Le téléphone mobile

Bon, la box Internet ou le point wifi ne consomment donc pas tant que ça. Qu’en est-il du téléphone mobile, présenté comme extrêmement gourmand ?

L’avantage du téléphone mobile est qu’il est alimenté par une batterie. Il est donc très facile d’estimer sa consommation maximale en fonctionnement : c’est celle d’une charge batterie complète, moins les pertes de celle-ci (faibles).

Une batterie de téléphone mobile d’aujourd’hui possède une capacité de 10 à 15 Wh. Elle peut donc fournir 10 à 15 W pendant une heure, ou la moitié pendant 2 h, etc.

L’éclairage d’écran d’un téléphone consomme à lui seul aux alentours de 2 W (facile à vérifier avec un consomètre assez sensible sur lequel on branche le chargeur). Cela représente le coût majeur lorsque vous visionnez une vidéo. La consommation est nettement plus élevée si vous préférez le faire sur un grand écran type téléviseur, et cela s’applique également à la télévision hertzienne classique.

Par comparaison, une ampoule LED consomme environ 8 watts pour remplacer à luminosité équivalente une ampoule à incandescence de 60 watts. Autrement dit, une charge de téléphone mobile n’a l’énergie pour éclairer une ampoule “basique” que pendant 1 à 2h. Il est évidemment important d’éteindre les pièces inoccupées, mais on en parle peu. Nous avons été convaincus que le téléphone mobile consommait bien plus, ce qui est faux.

Et le réseau mobile ?

Comme votre installation personnelle, la consommation du réseau de téléphonie mobile est essentiellement un coût fixe. L’équipement actif d’une antenne allumée va consommer quelques kilowatts ou dizaines de kilowatts, l’émission hertzienne proprement dite se contente de quelques dizaines de Watts, soit 100 fois moins. Autrement dit, la variable principale qui sous-tend la consommation électrique d’un réseau mobile est l’étendue de la couverture géographique, directement corrélée au nombre d’antennes.

Une étude finlandaise citée par le document Arcep a tenté d’estimer, pour la téléphonie mobile, la consommation électrique du réseau par rapport au volume de données, autrement dit le nombre de kWh par gigaoctet transféré (kWh/Go).

Pour effectuer de telles estimations d’impact environnemental, les méthodes dites d'”analyse du cycle de vie” (ACV) évaluent l’ensemble des coûts imputés par une activité. Ainsi, l’évaluation de l’empreinte de la téléphonie mobile intègre la fabrication des terminaux, la consommation personnelle (recharge quotidienne du téléphone), etc. Pour évaluer l’empreinte d’un opérateur mobile, on prend en compte la consommation des antennes, mais également la climatisation et chauffage des bureaux, etc. En divisant ce chiffre de consommation électrique totale par le volume échangé total, on peut obtenir une estimation de l’empreinte électrique du volume de données échangées.

Ce chiffre est intéressant pour évaluer l’empreinte totale des opérateurs, mais trompeur : il laisse entendre que la consommation électrique d’un opérateur mobile est totalement dépendante du volume échangé, ce qui est faux. Si du jour au lendemain tous les abonnés mobiles de France divisent leur consommation de données par 2, la consommation électrique des opérateurs ne va pas se réduire du même facteur : leurs antennes resteront allumées, leurs bureaux continueront à être climatisés et éclairés, etc.

L’étude finlandaise citée ci-dessus est intéressante à cet égard : on voit que la consommation électrique des opérateurs finlandais est restée à peu près stable pendant la décennie 2010, malgré une légère croissance tendancielle.

En revanche, les volumes échangés ont considérablement augmenté sur la même période :

L’étude finlandaise utilise les deux graphes précédents pour en déduire un graphe d’efficacité énergétique en kWh/Go :

Si on ne prenait en compte que ce dernier graphe, ou même simplement une estimation ponctuelle en kWh/Go, on serait tenté de croire que doubler le volume de données va doubler la consommation énergétique associée, mais c’est totalement faux. Pour simplifier un peu, on ne ferait qu’introduire un nouveau point de données avec une efficacité énergétique multipliée par deux.

Bien sûr, les choses sont un peu plus complexes que ci-dessus. Augmenter la consommation en volume va provoquer l’installation de nouvelles antennes, de routeurs plus puissants, de liaisons fibre de plus grande capacité, peut-être de nouveaux liens terrestres pour développer le réseau. Inversement, comme on l’a vu ci-dessus, les générations technologiques permettent d’échanger des volumes de données toujours plus élevés avec une consommation électrique qui se réduit. Ces progrès, réels, ne sont que peu visibles dans les chiffres agrégés de kWh/Go, puisque ces derniers sont essentiellement constitués de coûts fixes sans rapport avec les technologies de transmission.

Le rapport ARCEP cité ci-dessus propose également une évaluation en termes de gaz à effet de serre (indicateur plus important que la consommation électrique), qui montre une baisse progressive de l’empreinte des opérateurs français.

La section à laquelle ce graphique figure est d’ailleurs titrée “Une amélioration de l’efficacité énergétique qui compense, à ce stade, l’effet de l’explosion de trafic” pour résumer la situation.

Et les centres serveurs (datacenters) ?

Si tous les éléments cités ci-dessus ont une consommation faible, rien ne prouve que la consommation des datacenters n’est pas en train d’exploser pour répondre à la demande croissante ?

Une étude de l’agence internationale de l’énergie (IEA) montre, là encore, que la consommation électrique de ces centres n’explose pas, car les coûts principaux sont également des coûts fixes, et l’amélioration des équipements et de leur taux d’utilisation permet de traiter une quantité toujours croissante de services à consommation électrique égale.

De 2010 à 2019, le volume réseau a ainsi été multiplié par 12 alors que la consommation électrique est restée remarquablement stable.

Faut-il vraiment réduire notre consommation de données ?

On voit d’abord qu’aucun des éléments de la chaîne, du serveur de données à notre installation personnelle, n’éprouve une sensibilité particulière aux volumes de données échangés. Il n’y a donc pas de raison écologique de se forcer à réduire notre consommation de celles-ci.

Il n’y a pas de raison non plus de forcer les opérateurs à le faire à notre place, en appelant à l’interdiction des forfaits illimités, ou à une obligation de facturation au volume. On notera d’ailleurs que ces envies de facturation proviennent historiquement des opérateurs eux-mêmes, et ont pu être liées à des initiatives pour remettre en cause la neutralité du réseau.

On peut légitimement arguer que l’électricité française est l’une des moins carbonées du monde (nos efforts en matière de consommation électrique ont donc beaucoup moins d’impact CO2 qu’ailleurs, à énergie économisée équivalente).

Mais puisque rien ne prouve qu’être sobre sur notre consommation de données aura le moindre impact significatif sur la consommation électrique, à quoi bon s’épuiser en efforts inutiles ?

Ce tweet résume d’ailleurs bien la question, pour montrer que le refus “par principe” de l’illimité n’a pas de sens :

En conclusion, la sobriété pour la sobriété, qu’elle soit volontaire ou forcée, n’est guère justifiable, et risque même de nous empêcher de profiter des externalités positives significatives, et reconnues, du numérique. Préférons donc la sobriété dûment justifiée.

Il est bien entendu utile d’éteindre sa box Internet, son accès wifi ou son ordinateur lorsqu’on ne s’en sert pas, comme on éteint la lumière ou le chauffage dans une pièce inoccupée. Il semble également établi, jusqu’à preuve du contraire — les données fiables sur la question sont rares en Europe –, que la fabrication des terminaux mobiles reste une activité consommatrice de ressources, il est donc utile d’utiliser les nôtres le plus longtemps possible pour mieux en amortir ce coût fixe.

Ce billet est resté succinct pour ne pas noyer le lecteur sous des tonnes de chiffres, mais n’hésitez pas à laisser un commentaire ici si vous avez des données pertinentes et sourcées qui pourront peut-être faire l’objet d’une deuxième couche 🙂

Restez chez vous !

Hier, le président a expliqué — à nouveau — qu’il était important de rester chez nous pour ralentir au maximum la diffusion du virus covid-19 ; et a mis en place de nouvelles mesures pour décourager les déplacements inutiles, les annonces précédentes n’ayant guère été suivies d’effets.

Pourquoi ralentir au maximum la diffusion ? Parce que le virus, peu virulent d’ordinaire, peut être dangereux pour des personnes vulnérables, affichant un taux de mortalité supérieur à la grippe saisonnière. Surtout, sa diffusion — même lente — a toutes les chances de provoquer l’engorgement des hôpitaux, rendant ainsi impossible de prodiguer à tous les cas graves les soins dont ils ont besoin. C’est déjà le cas en Italie, cela commence à être vrai en France.

Plus la diffusion est lente, plus le pic à supporter par les hôpitaux sera réduit. Personne ne sait l’ampleur de celui-ci, c’est à dire, la façon dont devraient être dimensionnés les hôpitaux. C’est pourquoi les autorités de santé nous demandent de déployer tous nos efforts pour limiter la propagation. C’est pourquoi on nous demande également de rester chez nous et de ne pas diffuser le virus dans tout le pays. Ce n’est pas juste pour nous ; c’est surtout pour épargner les malades les plus vulnérables.

Actuellement, d’après les statistiques disponibles dans les pays européens, le virus touche chaque jour 30 % supplémentaires de la population. Autrement dit, la population infectée double tous les 3 jours. Doubler les capacités des hôpitaux ne donnerait que 3 jours de répit ; les quadrupler, 6 jours de répit. Cela ne peut être suffisant, même dans un monde idéal où nous en aurions le temps matériel.

Petit retour en arrière.

En janvier 2020 lors d’un voyage aux États-Unis, j’attrape un gros rhume qui dégénère. Environ 15 jours de rhume, fatigue, toux, fièvre, maux de tête et de gorge : « syndrome grippal ». 3 jours plus difficiles au milieu. Rien d’agréable, mais je n’y ai pas porté beaucoup d’attention, hors l’envie d’en sortir. J’ai supposé que j’avais pris froid lors de mes visites en plein air.

C’était 6 jours après l’avion de Paris à San Francisco via Amsterdam. Des heures dans deux avions, 3 aéroports bondés et autant de files de sécurité, douane, bagages. Autant d’occasions d’attraper ce virus, d’autant que je n’ai pas pris de précaution particulière, en l’absence de recommandations sanitaires à ce stade en France. Au retour, l’hôtesse me dira : « cette toux-là, je l’entends sans arrêt ».

L’infection est disparue comme elle est venue, comme un rhume. En voyage touristique, je n’avais pas l’intention de perdre du temps chez un médecin, et particulièrement pas aux États-Unis. J’ai trouvé les médicaments courants dont j’ai l’habitude pour apaiser fièvre et maux de tête. J’étais heureux que cela suffise.

Une semaine après mon retour en France, je me retrouve quelques jours à l’hôpital en Haute-Savoie, après le 12 février, suite à une fracture de la hanche. C’est ici que se terminera totalement ma toux.

Un mois après mon retour, j’apprends qu’un autre proche a également été malade. Je plaisante en lui demandant s’il n’aurait pas eu ce fameux covid-19. Il pense plutôt avoir attrapé mon rhume. C’est possible, malgré une durée d’incubation de plusieurs semaines. Ses symptômes sont très similaires.

Puis je lis que le ministre de la culture, Franck Riester, a été testé positif au virus et qu’il a repris son activité après 3 jours de maladie.

C’est là que je commence à me poser des questions. Dans mon esprit, marqué par les communications de panique sanitaire, le covid-19 était une maladie plus virulente et plus longue. Est-ce que, sans le réaliser, j’aurais pu le subir en janvier ?

Il m’est impossible de le savoir avec certitude. En France, les rares tests disponibles semblent réservés aux cas graves et aux ministres.

La semaine dernière, une autre de mes proches est tombée malade. « Syndrome grippal » encore : grosse fatigue, parfois un peu de fièvre, maux de tête, un peu de toux. Cela semble aujourd’hui toucher à sa fin.

Nous avons contacté les services spécialisés qui nous dit que, sauf aggravation des symptômes, il suffisait d’attendre la fin de la maladie, en restant chez nous. Pas de test : les cas bénins n’ont aucun traitement spécifique différent de celui d’une simple grippe. Il est donc inutile de savoir s’il s’agit du covid-19.

Combien sommes-nous dans un tel cas, à être potentiellement contaminés, non répertoriés, et sans aucun moyen de le savoir ?

Bien entendu, cette question est sans importance pratique, hors celle d’espérer une immunité personnelle dans les semaines qui suivent la guérison, nous permettant de nous alléger l’esprit comme les protections.

Mais combien sommes-nous, surtout, en l’absence de test, a avoir été malades du covid-19 sans le comprendre, c’est à dire sans prendre plus de précautions que pour un simple rhume ou grippe ? Et avoir, donc, contribué à diffuser la maladie qui a aujourd’hui ces conséquences sans précédent ? Le port du masque est maintenant un réflexe naturel pour protéger autrui — malheureusement, les masques sont indisponibles. Que dire de ceux qui, en masse, quittent les grandes villes, violant le confinement, pensant échapper à la maladie, mais ne réalisant pas qu’ils l’ont peut-être déjà et participent ainsi à sa diffusion plus rapide ?

La situation est sans précédent. Comment aurait-il fallu procéder ? Il n’est pas aisé, même pour les spécialistes de santé, d’évaluer la dangerosité d’une maladie généralement bénigne, lorsque sa gravité ne se révèle qu’à très grande échelle.

On aurait cependant pu supposer que les exemples chinois, puis italien plus proche de nous, auraient permis à nos dirigeants comme à nous de profiter de cette triste expérience anticipée. Il n’en a rien été. D’autres pays, après la France, sont en train de reproduire les mêmes erreurs, malgré les supplications des spécialistes en épidémiologie.

Mais il est également de la responsabilité de chacun de comprendre aujourd’hui la situation et de ne prendre à la légère, ni un gros rhume, ni les précautions à prendre pour épargner autrui. Cela inclut le respect aussi strict que possible des instructions de confinement, sans attendre que le gouvernement soit contraint de déployer des moyens de plus en plus coercitifs.

Nos gouvernants ne sont pas seuls responsables. Nous le sommes tous. Ils ont fait des erreurs. Nous aussi. Faisons maintenant notre part.

Cela n’a rien d’insurmontable : on nous demande tout simplement de rester chez nous.

Petit jeu de fraîcheur avec les moteurs Qwant et Bing

Vous connaissez sans doute le moteur de recherche français Qwant. Ce moteur a défrayé la chronique à plusieurs reprises ces dernières années, et à plusieurs titres.

L’un des critiques principales était sa dépendance au moteur états-unien Bing de Microsoft.

En effet, créer un index significatif du web est une entreprise difficile et coûteuse en temps comme en ressources. Qwant avait donc choisi plus ou moins officiellement de s’appuyer sur les résultats de Bing, pendant qu’il constituait son propre logiciel et son propre index, tout en vendant des publicités sur les pages de résultats pour s’assurer un début de revenu.

Rapidement sont apparues des critiques sur la vitesse d’indexation des sites, certaines pages n’étant manifestement rafraîchies que rarement.

J’ai voulu en avoir le cœur net en créant une page sur un site que je gère, nic.eu.org. La page est ici et affiche la date et heure du jour à Paris, avec une chaîne unique permettant de la retrouver facilement dans les moteurs. Elle est référencée par un lien caché sur la page d’accueil du même site.

Le résultat est plutôt bon en termes de fraîcheur. Ainsi, ce matin 11 mars 2020, on peut voir sur Qwant que la page indexée a été parcourue le 9 mars à 0h51 :

Cependant, les choses se gâtent en ce qui concerne l’indépendance vis-à-vis de Bing. En effet, la page retournée par Qwant est en fait celle indexée par Bing, comme le montre une recherche sur Bing qui donne une date identique.

On obtient le même résultat par une recherche sur Duckduckgo, autre moteur utilisant Bing :

Dans les journaux de connexion du serveur web, il est facile de voir qu’en effet, à cette date, c’est bien l’indexeur de Bing qui est passé sur la page, suivi peu après par celui de MSN :

40.77.167.206 - - [09/Mar/2020:00:51:23 +0100] "GET /d.html HTTP/1.1" 200 63 "-" "Mozilla/5.0 (compatible; bingbot/2.0; +http://www.bing.com/bingbot.htm)" nic.eu.org

40.77.167.221 - - [09/Mar/2020:00:53:09 +0100] "GET /d.html HTTP/1.1" 200 63 "-" "msnbot/2.0b (+http://search.msn.com/msnbot.htm)" nic.eu.org

À ce jour, l’indexeur de Qwant n’a pas visité cette même page. Il passe régulièrement sur le site, mais se contente en général de visiter la page d’accueil et l’icone du site :

194.187.171.130 - - [11/Mar/2020:10:28:48 +0100] "GET /favicon.ico HTTP/1.1" 404 196 "-" "Qwantify/1.0" nic.eu.org

194.187.171.142 - - [11/Mar/2020:10:28:48 +0100] "GET / HTTP/1.1" 200 1572 "-" "Qwantify/1.0" nic.eu.org

500 000 doublons sur les listes électorales françaises ; pas grave

[Ce billet étant en grande partie déductif (voire spéculatif), veuillez lire un conditionnel implicite dans tout ce que j’affirme ci-dessous ;  je suis ouvert à toute correction technique sur des erreurs que j’aurais pu éventuellement commettre sur le processus électoral]

Vous n’en avez peut-être pas entendu parler, comme moi, qui l’ai découvert par hasard hier. Je vous invite à commencer par lire cet article du Monde datant du 13 avril 2017. L’article est rempli de petits détails qui comptent :

Vote en 2017 : quelque 500 000 électeurs sont inscrits deux fois sur les listes électorales

500 000 électeurs français environ sont inscrits sur 2 listes électorales, en général suite à déménagement : une fois à leur nouvelle adresse, et une fois à leur ancienne adresse.

Lors d’un déménagement, l’électeur s’inscrit à la mairie, et c’est l’administration, plutôt que l’électeur, qui s’occupe des formalités de radiation à l’ancienne adresse. L’article explique le processus : la nouvelle mairie remonte l’information d’inscription à l’INSEE, qui se charge de transmettre une demande de radiation à l’ancienne mairie.

Or, le processus semble ne pas fonctionner correctement : les radiations ne sont pas toutes actées, pour des raisons obscures. Les mairies accusent l’INSEE, qui assure que de son côté tout est exécuté dans les règles. Le tout circule par… la poste.

Il existe donc à ce jour 500 000 radiations qui n’ont pas été effectuées et qui correspondent à autant de doublons dans les listes.

Et c’est là que la situation, déjà préoccupante en elle-même, devient de plus en plus ubuesque.

Le ministère de l’intérieur, chargé de l’organisation du scrutin et d’assurer sa “sincérité”,  semble tout simplement n’avoir aucune intention de changer quoi que ce soit avant le premier tour du 23 avril (je n’ai trouvé aucun communiqué officiel sur la question).

Si on creuse un peu (il suffit en fait de lire attentivement l’article qui précède), on s’aperçoit que le problème ne date pas de 2017. En 2012 déjà, 400 000 électeurs étaient inscrits en double.

Si on suppose que le volume d’erreur est resté relativement fixe et qu’on extrapole la période 2012-2017 au passé, on peut calculer qu’à raison d’environ 100 000 doublons supplémentaires par période de 5 ans, le problème date d’environ 25 ans, donc remonte à 1992 approximativement, et est connu de l’administration depuis au moins 5 ans — version optimiste ; au pire, 25 ans — plutôt que 2 semaines, et persiste néanmoins aujourd’hui.

Que faudrait-il faire pour y mettre fin ? C’est difficile à dire, car les détails qui filtrent sont rares ; et on nous assure que le problème est très complexe. Apparemment l’INSEE dispose d’une liste nationale (puisque c’est lui qui sait à qui communiquer les radiations), et les mairies disposent évidemment chacune des listes électorales locales, bureau par bureau (puisqu’elles réalisent les inscriptions et radiations).

Il serait possible (mais cela serait étonnant) que l’INSEE ne garde tout simplement pas trace des notifications de radiations proprement dites. Il est néanmoins très probable que l’INSEE conserve un historique des versions successives (au moins sur les années récentes ; peut-être pas sur les années plus anciennes, s’il existe des lois interdisant la conservation longue de ces données de nature très personnelle) du fichier national, dont il est facile de déduire la liste des radiations.

Quelques petites informations supplémentaires sur la procédure sont données dans les interviews de cette vidéo de LCI :

Présidentielle 2017 : 500 000 électeurs inscrits en double, le ministre de l’Intérieur sommé de “faire son boulot” pour éviter des fraudes

Le responsable électoral de la mairie de Paris 17e décrit rapidement ce que j’ai exposé plus haut.

On y entend également un avocat spécialisé en droit électoral nous expliquer que 500 000 doublons correspondent à environ 1% du corps électoral, soit 1% indûment compté en abstention ; ce qui selon lui ne serait pas très grave. Pour un premier tour de présidentielle, c’est relativement exact (hors tentatives d’exégèse du taux d’abstention) ; pour les législatives, où les candidats de second tour doivent obtenir au moins 12,5% des inscrits, cela peut changer significativement les choses.

La raison citée par la place Beauvau pour minimiser la gravité de la situation, et excuser l’absence de mesure avant le 23 avril, est que, de toute façon, la loi punit sévèrement le fait de voter en double : de 6 à 24 mois d’emprisonnement et jusqu’à 15 000 euros d’amende.

Or, retrouver les contrevenants semble quasiment impossible dans le cas général : en effet, pour cela il faudrait, d’abord, effectuer le dédoublonnage — opération dont on nous dit qu’elle est difficile, ce que semble confirmer le fait qu’elle n’ait pas été réalisée depuis 5 ans –, et, en plus, croiser le résultat avec les listes d’émargement bureau par bureau. Les listes d’émargement étant tenues de manière manuelle, puisque c’est la signature du votant qui y atteste de son vote, leur vérification a posteriori ne peut être également que manuelle.

Le plus triste à mon sens est que cette situation touchant un des éléments les plus essentiels de notre démocratie perdure depuis au moins 5 ans et soit minimisée voire ignorée par l’administration dans la plus parfaite opacité.

PS : pendant que ces trous béants persistent, les pouvoirs publics communiquent avec conviction sur les efforts déployés pour sécuriser nos élections contre les attaques informatiques provenant de puissances étrangères hostiles.

Ajout du 23 avril 2017 : on me fait remarquer dans les commentaires que la poste est supposée ne pas réexpédier les cartes d’électeur, et on me dit sur twitter que cela figure même sur l’enveloppe, ce que je n’avais pas remarqué. En effet.

Professions de foi et bulletins, élections régionales 2015, Île de France

Comme pour les élections européennes, voici le PDF des professions de foi reçues par la poste hier (27 novembre 2015). Le PDF inclut les papiers dans l’ordre exact à leur réception. Il y avait deux paquets séparés dans l’enveloppe, l’un commençant par les papiers de Lutte Ouvrière, l’autre commençant par ceux du FN.

Toutes les listes candidates ne sont pas dans les papiers reçus, il manque :

  • Fédération libertaire unitaire ouverte (FLUO), liée d’après son affiche, entre autres, au “Parti pirate”
  • Liste d’union citoyenne
  • Nous Citoyens (NC)
  • Parti libéral démocrate (PLD) – Génération Citoyens (GC)
  • Union des démocrates musulmans français (UDMF)

Censure sans juge d’Internet et délit d’opinion

Vous avez peut-être (mais sans doute pas) entendu parler des lois LOPPSI et Terrorisme (cette dernière votée fin 2014) et de leur décret d’application (sorti en début d’année 2015).

Ces lois permettent à la police, sans intervention d’un juge et sans aucune transparence, de bloquer, avec l’aide de certains fournisseurs d’accès (pour l’instant, seuls les 4 plus gros en France, à savoir Orange, Free, SFR et Bouygues) un site Internet faisant l’apologie du terrorisme.

Pour ne pas accabler le gouvernement, il faut savoir que le PS a combattu le blocage sans juge avec succès lorsqu’il était dans l’opposition, pendant le mandat Sarkozy, avant de le voter quasi unanimement en 2014, avec l’aide du PCF (qui voulait en fait voter contre mais ne s’en est aperçu qu’après).

Le blocage, techniquement parlant, est un blocage DNS, mais cela n’a guère d’importance ici.

Le premier site dont quelqu’un (un journaliste spécialiste du djihadisme, David Thomson) constate publiquement le blocage — puisque tout cela côté administration se fait dans l’opacité la plus totale — est islamic-news.info. C’est un site dont, personnellement, je n’avais jamais entendu parler jusqu’à ce jour. Si vous cliquez sur ce lien, vous allez vous retrouver :

  • ou bien sur une page d’avertissement du ministère de l’Intérieur, si votre FAI est l’un des quatre susnommés et que vous utilisez leurs serveurs DNS ;
  • ou sinon sur rien du tout, le site en question (chez un hébergeur français) ayant été manifestement coupé (on ne sait pas par qui).

Théoriquement, le principe de subsidiarité veut que l’hébergeur ait 24 heures pour couper le site incriminé ; le blocage DNS n’étant supposé être activé qu’à l’issue de ce délai et en l’absence de coupure par l’hébergeur ou l’éditeur. En fait, le blocage DNS n’était théoriquement destiné qu’à censurer sur le territoire français, les sites étrangers, non soumis à la LCEN. On voit donc que le ministère de l’Intérieur a interprété au sens large la loi qui a été votée en l’appliquant à un site hébergé en France.

Les deux blocages ayant été mis en place, rien ne dit que ce délai a été respecté (mais rien ne dit non plus le contraire), en raison de l’opacité des procédures. [mise à jour 16/3/2015] En fait, l’hébergeur affirme ne pas avoir été notifié au préalable. “Pq personne ne nous a notifié LCEN pour fermer le site ? J’apprends ce matin qu’il a été bloqué par le M Intérieur !?”.

Voici la page d’accueil de la police (qui ne fonctionne que si on arrive par un lien “principal” du site bloqué, et pas par un lien interne).

police

Cela dit il est facile de voir la page d’accueil du site (hors images) car celle-ci est encore visible dans le cache Google :

cacheislamicinfo

 

Il s’agit d’un site d’actualités islamiques apparemment assez “engagé”, comme d’autres sites non moins engagés mais sur d’autres sujets, également situés en France.

Le site fait-il vraiment l’apologie du terrorisme ? Difficile à dire, on entre là dans le jugement de valeur.

Et c’est bien tout le problème.

La police a “jugé” (guillemets) que oui, ce site fait l’apologie du terrorisme. Nous sommes obligés de lui faire confiance, n’ayant ni accès à l’intégralité du site, ni la possibilité de trouver quel est le contenu incriminé précisément (cela ne me saute pas aux yeux sur la page d’accueil).

La décision de la police n’a pas à être motivée, tout juste est-elle susceptible de recours gracieux, hiérarchique puis contentieux — les nouvelles règles sur l’acceptation implicite de l’administration en l’absence de réponse de sa part dans le délai imparti ne s’appliquent pas ici, ce serait trop beau :

En l’absence de réponse de l’administration dans un délai de deux mois à compter de la date de réception de votre recours, celui-ci doit être considéré comme implicitement rejeté.

Ensuite un recours est possible auprès du tribunal administratif de Cergy-Pontoise, ce qui est rendu d’autant plus difficile que la décision à contester n’est ni publique ni motivée.

La loi suscitée permet également à la police française d’exiger le déréférencement par Google et les autres moteurs de recherche, sans aucun recours prévu en revanche de ce côté.

Nous nous retrouvons donc dans un régime où la police, sans contre pouvoir réel car avec des voies de recours extrêmement difficiles et aléatoires, peut décider de ce que nous avons le droit de voir ou pas.

Vous pensez peut-être que, pour lutter contre le terrorisme, cela est parfaitement anodin et normal, et que les services administratifs de la police n’ont de compte à rendre à personne en termes de transparence.

[Mise à jour du 17/3/2015 “Beauvau n’avait pas prévu de communiquer initialement” sur ce sujet, nous apprend un article du Monde, mais dans ce même article nous apprenons que ces sites ont été ciblés parce qu’ils “ne constituaient pas des médias stratégiques pour les services de renseignement français, qui en ont besoin pour surveiller des candidats au djihad“. Autrement dit, les sites bloqués ne sont que des sites de seconde zone pour amuser la galerie, sans souci d’efficacité autre que médiatique. ]

Sachez alors que Christiane Taubira, ministre de la justice, propose l’extension de ce blocage sans juge aux contenus antisémites et racistes — sur simple estimation opaque et non motivée de la police, là encore.

Sachez enfin qu’un député PS, Guy Delcourt, du Pas de Calais, a demandé très récemment l’extension de ce blocage aux injures envers les élus (uniquement envers les élus), sous couvert de protection de la démocratie. C’est ici, trouvé par l’œil affûté de Nextinpact :

http://questions.assemblee-nationale.fr/q14/14-75404QE.htm

 

Dans l’indifférence, pour ne pas dire l’approbation, quasi-générale,  l’état de droit continue donc de s’effriter peu à peu avec la mise en place par nos gouvernements et parlementaires de procédures d’exception, sous prétexte de protection de… l’état de droit.

[mise à jour du 18/3/2015] à lire absolument car elle donne un tout autre point de vue, la réponse de l’auteur du site islamic-news.info chez Numérama.

[mise à jour du 16/3/2015] Incidemment, on remarquera que la page Facebook de Islamic-News existe toujours : seul un blocage complet de Facebook en France serait possible, ce à quoi la police n’a pas osé procéder. Le blocage DNS va donc pousser les groupes fondamentalistes à recentrer leurs contenus sur les sites comme Facebook et Youtube, qui pratique une censure qui leur est propre.

Compléments :

[mise à jour du 16/3/2015] Il y a (au moins) 2 autres messages à d’autres adresses IP, dénichés par Stéphane Bortzmeyer.

90.85.16.50 prévue pour le “contenu illicite” en général, sans précision.

mi-illicite

90.85.16.51 pour la “pornographie enfantine”

mi-porno

[mise à jour 16/3/2015 18h20] apparemment le ministère d’Intérieur n’apprécie pas que l’on aille consulter sa page d’interdiction sans vouloir aller sur un site interdit.

miforbid

J’ai donc créé les adresses interieur0.eu.org  interieur1.eu.org interieur2.eu.org

[mise à jour du 17/3/2015 9h38] Un article d’Amaëlle Guitton indique les autres sites bloqués, qui eux sont encore accessibles si on n’utilise pas un DNS menteur : .

Petite histoire de la neutralité d’Internet à travers les âges

Comme vous le savez sûrement, la FCC (Federal Communications Commission) des USA a voté en faveur de la neutralité d’Internet aux USA.

Aussitôt, les telcos (opérateurs) US se sont élevés pour dire, en substance, que c’était une stupidité qui allait les empêcher de facturer plus cher, de mettre en place des priorités, et “donc” — je leur laisse la responsabilité du lien de causalité supposé — d’innover [alors qu’on peut démontrer, comme je l’ai fait ici, l’inverse d’un point de vue rationnel, et a fortiori quand on regarde l’histoire du Minitel tué par Internet et la loi de Moore]

Pour expliquer à nouveau pourquoi ils disent à nouveau des bêtises, il est intéressant de revenir sur différents épisodes similaires qui ont marqué l’histoire des réseaux de données.

1969 : Arpanet 1, Telcos 0

À la fin des années 1960, lorsque les concepteurs du réseau Arpanet (prédécesseur d’Internet) ont commencé à travailler, ils sont allés voir les opérateurs de télécommunications US, ou plus précisément, L‘opérateur de télécommunications US : AT&T, pour lui demander son avis sur l’architecture prévue.

AT&T a regardé les schémas de haut, et leur a répondu en substance : “écoutez les petits amis informaticiens, vous êtes bien gentils, mais votre truc, ça ne marchera jamais. Oh, vous allez bien vous amuser et échanger quelques données entre potes, mais passé une certaine échelle, tout s’écroulera. Chez nous, pour transmettre la voix, on construit les réseaux de manière fort différente, parce que la voix, c’est compliqué. Alors votre réseau ne saura jamais transmettre la voix correctement”.

Et on crut le telco. Les concepteurs d’Arpanet ont conçu Arpanet quand même, sans trop s’inspirer des conseils du telco, et pour connecter différents sites de recherche et échanger des courriers électroniques et des fichiers, cela fonctionnait très bien.

Peu après, au début des années 70, en France, Louis Pouzin et son équipe, informaticiens eux aussi, inventaient pour leur réseau expérimental Cyclades la lettre postale du numérique : le datagramme, le paquet de données ; qui disposait d’une adresse destination, comme une lettre, et qui permettait d’envoyer les données par morceaux.

Et également pendant ce temps, en France, les chercheurs de l’opérateur national concevaient également le futur réseau de transmission de données, Transpac, conçu suivant les règles de l’art, enfin, les règles de l’art des telcos, et une norme internationale, X.25. Tout cela calqué directement sur le modèle du réseau téléphonique, mais sans notion réelle de priorité, qui n’importait pas à l’époque : Transpac n’était fait que pour transporter des données, pas la voix. La voix, c’était la seule vraie application de masse des réseaux, elle était facturée cher car volumineuse, et à l’époque la connexion d’un gros serveur Transpac avait un débit largement inférieur à celui nécessaire pour une simple communication vocale.

Cyclades se développa, Transpac se développa et rapidement il fallut choisir quel serait le réseau déployé nationalement pour être commercialisé. Que croyez vous qu’il arriva ? Transpac, soutenu par l’opérateur national et conçu suivant les règles de l’art par les spécialistes de la question, remporta la manche.

1974 : Cyclades 1, X.25 0

Pendant ce temps, aux USA, Vint Cert et ses collègues reprenaient les idées de Cyclades : le datagramme, l’adressage logique, l’interconnexion des réseaux, et j’en passe, pour inventer TCP/IP qui devait permettre à Arpanet de devenir l’Internet que nous connaissons. Les telcos se pinçaient le nez devant à peu près l’intégralité de ces idées, qui violaient sauvagement les règles de l’art établies depuis des décennies par les spécialistes de la voix.

Puis au milieu des années 80 arriva en France le Minitel, qui répondait rigoureusement aux idées des telcos pour monétiser leur activité : faire payer à la connexion, à la durée, et éventuellement au débit. Car, comprenez-vous, il fallait éviter que les gens abusent du réseau et y prennent plus que leur part. Le meilleur moyen était de facturer rigoureusement à l’usage, non ?

Et on les crut. le Minitel fut un succès.

1980s : Internet 1, X.25 0

Pendant ce temps, Internet suivait le modèle des rigolos universitaires et chercheurs, qui n’étaient là que pour avoir un réseau qui marche entre eux et au moindre coût, et qui n’avaient pas les moyens de se payer X.25, équipements plus lourds, facturation plus chère, modèle moins souple.

Internet se développa d’abord aux US, puis commença à la fin des années 80 à conquérir le monde de la recherche, notamment en Europe, et finit rapidement par se trouver ici ou là nez à nez avec X.25, et lui fut largement préféré par ceux qui avaient le choix, parce qu’ils n’y connaissaient rien, les pauvres.

Quelques opérateurs Internet français ou européens, les données étant encore chères à l’époque, décidèrent d’appliquer un modèle de facturation inspiré du Minitel (qui avait pourtant amorcé son repli) pour répartir équitablement les coûts et éviter les abus, et moururent très rapidement face à ceux qui fournissaient des offres au forfait.

Voyant qu’Internet devenait de plus en plus fort, les opérateurs de télécoms n’étaient pas en reste. Ils avaient depuis la fin des années 80 travaillé sur les protocoles du futur, et en particulier l’ATM, asynchronous transfer mode. L’ATM était le réseau de données du futur : il était conçu suivant les règles de l’art et permettait de garantir la qualité de service, le débit, que-sais-je, en réservant et en facturant la réservation des ressources réseau, par souci d’équité et de business model sonnant et trébuchant.

Vous comprenez, il fallait bien que les telcos aient une motivation pour développer le réseau ! ATM était le vrai réseau des professionnels, permettrait de transporter correctement de la voix, de la vidéo, et toutes ces choses qu’Internet était totalement incapable de fournir sérieusement à grande échelle et internationalement, soyons sérieux.

Au milieu-fin des années 90, ATM était prêt et, c’était sûr selon les telcos, allait remplacer Internet dans le développement naturel des réseaux de données.

1990s : Internet 1, ATM 0

Curieusement, cela ne marcha pas : ATM était techniquement trop cher en matériel comme en utilisation, n’arriva jamais à se développer pour les communications internationales où il s’annonçait encore plus onéreux voire impossible à faire fonctionner avec les garanties luxueuses annoncées, et là encore Internet lui était quasi systématiquement préféré par les gens qui avaient le choix. L’histoire de X.25 avait tendance à bégayer.

ATM se retrouva cantonné aux département de recherche des spécialistes en télécom, et Internet devint le réseau international sérieux, c’est à dire exactement l’inverse de ce que les telcos avaient soigneusement planifié. Ceux-ci, pour éviter de se faire mettre au placard dans les 5 ans suivants, rachetèrent massivement les petits opérateurs Internet de l’époque, ou changèrent leur fusil d’épaule.

Donc nous sommes en 2015, où après 4 échecs sanglants du modèle telco des vrais spécialistes, les vrais spécialistes reviennent nous expliquer que la neutralité d’Internet, ce n’est pas bien sérieux et ça va empêcher le réseau de se développer pour faire des vraies choses dont nous allons avoir besoin très bientôt.

Alors… vous les croyez encore, vous ?

Publier un livre Kindle avec un outil libre : LibreOffice

Voici une petite recette que j’ai concoctée un peu par hasard, par essais-erreurs, avant d’arriver par hasard à une solution satisfaisante alors que je n’y croyais plus trop. Comme elle peut servir à d’autres, la voici.

Le problème : éditer en version Kindle un livre déjà constitué au format LibreOffice.

Par “déjà constitué”, j’entends simplement :

– composé de manière homogène avec des styles (paragraphes, chapitres, notes de bas de page…)

– disposant d’une table des matières

En général, si le tout a été accompli jusqu’à l’édition d’un PDF imprimable qui ressemble à ce que l’on a coutume d’appeler un livre (pages paires, impaires, début des chapitres sur page impaire, couverture et 4e de couverture…) , le boulot est déjà fait, et largement au delà du strict nécessaire.

Au départ j’ai voulu passer par le format ePub, qui a l’avantage d’être ouvert, et l’extension writer2epub de LibreOffice, mais le résultat souffrait de quelques bugs de formatage. Il aurait sans doute été possible de les corriger à la main, avec l’inconvénient d’avoir à les recorriger à la main à chaque nouvelle correction du contenu dans l’original.

Finalement, il a suffi dans LibreOffice :

– d’enlever la couverture afin d’avoir un fichier ne contenant que l’intérieur du livre, ce que demandent de toute façon les imprimeurs ;

– d’exporter le fichier résultant au format .docx, puis de l’importer chez Amazon. Amazon ne connaît malheureusement pas le format .odt natif de LibreOffice.

La conversion en format Kindle est réalisée par Amazon à la volée et ne prend que quelques minutes.

Ensuite que l’auteur (ce n’est pas moi) remplisse un dossier administratif (compte bancaire pour recevoir les droits, déclaration fiscale US…).

Puis il suffit d’attendre la validation par Amazon, annoncée “jusqu’à 48 heures”, mais qui n’a pris là que quelques heures, avant d’apparaître dans la boutique.

Et voilà, si vous voulez voir le résultat, le livre se trouve en vente ici dans la boutique Amazon 🙂

Commentaires bienvenus (oui, il faudrait peut-être ajouter une couverture…)

Professions de foi et bulletins, élections européennes 2014, Île de France

Au cas où cela pourrait intéresser quelqu’un, ne serait-ce que pour des raisons d’accessibilité, voici  les documents que je viens de recevoir par courrier pour les élections européennes du 25 mai, région Île-de-France :

  • scan des professions de foi (attention : 50 Mo) pour 14 partis, dans l’ordre où je les ai reçues ;
  • scan des bulletins, pour 11 partis (tous simple face, sauf celui du PS, tels que je les ai reçus sauf celui du PS replacé en fin pour clarté)

et pour faire bonne mesure, la liste des 31 listes se présentant, sur le site du ministère de l’Intérieur, recopiée ici en document PDF car je doute que cette adresse soit pérenne.

Car, de plus en plus souvent dans les élections en France, à moins d’aller fouiner sur le site web de l’Intérieur, on ne sait qu’au dernier moment, au bureau de vote, quels sont les candidats ou listes pour lesquels on peut voter.

Ainsi, il faut vraiment être motivé pour apprendre que le Parti Pirate présente une liste en Île de France… j’aime bien leur phrase : “La NSA sait déjà que vous allez voter pour nous”.