Un téléphone intelligent sans service Google ou Apple

Maintenant que Windows Phone pour le grand public est mort – au moins à un horizon décidable – et que les projets ubuntu phone  et firefox os sont abandonnés, on se retrouve avec deux acteurs sur le marché des systèmes d’exploitation pour téléphone intelligent : Google avec Android et Apple avec iOS.

Apple développe des systèmes notoirement fermés, et rien que le fait qu’ils ont été les premiers promoteurs de ce système de spoliation des développeurs par le paiement de royalties sur la vente de logiciels sur la plateforme m’interdit d’utiliser leurs outils.

Google de son côté gagne de l’argent avec Android de deux manières : la même spoliation des développeurs par le paiement de royalties, bien que ce soit plus facile à contourner, et l’utilisation quasiment obligatoire de ses services sur les téléphones. Comme je l’ai déjà abordé, la gratuité de ces services n’est qu’apparente, Google se payant de la connaissance qu’il acquière de vous, tout comme Facebook, ce qui pose de très nombreux problèmes de libertés individuelles et publiques.

Alors en attendant des projets comme eelo ou le librem 5, qui ne seront là au mieux que dans 1 an, est-il possible d’avoir un téléphone intelligent utilisable sans être enfermé dans l’écosystème fermé de Apple ou livrer toutes ses données à Google ? Voici mon expérience.

Quel système d’exploitation ?

Comme les diverses alternatives aux deux gros ont été abandonnées ou ne sont pas encore à l’état de production, on se retrouve obligé de composer avec iOS ou Android. L’écosystème d’Apple est complètement fermé, et il n’y a aucun moyen de l’ouvrir ; à l’opposé, le code source d’Android est publié sous licence Apache à chaque sortie de version dans le projet AOSP (Android Open Source Project). On pourrait croire que cela implique qu’il soit facile d’installer sa propre version d’Android sur n’importe quel téléphone, mais la réalité est plus complexe : chaque constructeur de téléphone intelligent adapte Android à sa sauce pour coller à sa plateforme matérielle. D’une part, comme pour un PC, vous devez avoir les drivers de tous les composants, et ceux-ci ne sont pas toujours open source. Par ailleurs, plus un objet électronique a de contraintes fonctionnelles – taille, mobilité – plus il est difficile de respecter une architecture matérielle standard : les ordinateurs portables ont toujours posé des problèmes aux projets open source comme Linux, et les téléphones intelligents sont encore plus contraints. Enfin, les fabricants de téléphone sont pour la plupart des entreprises d’électronique grand public, et autant le monde du PC a toujours eu comme vertu cardinale la compatibilité – grosso modo, il n’y a eu que 5 architectures principales dans le monde du PC en 35 ans, IBM PC, XT, AT, ATX et BTX, cette dernière n’ayant pas encore totalement remplacé ATX – autant les fabricants d’électronique grand public sont habitués à faire leurs « petites bidouilles » sans trop se préoccuper de standards matériels ; pour avoir travaillé dans des projets où des PC discutaient avec des cartes électroniques, quand on est habitué aux API haut niveau bien standardisées, ça surprend.

De nombreuses équipes de développeurs bénévoles s’astreignent donc à la tâche ingrate d’extraire les drivers et les spécificités de chaque téléphone intelligent pour ensuite les combiner avec AOSP pour livrer un système plus ouvert que l’Android avec surcouche du fabricant. On pourra citer LineageOS, a priori le plus connu, OmniROM, AOKP. Chacun de ces projets publient ce qu’on appelle des ROM, pour Read Only Memory, ou mémoire morte en français, terme employé généralement pour le logiciel des cartouches de jeux vidéos dans les émulateurs et employé ici au sens de système d’exploitation complet, drivers compris, une ROM par modèle de téléphone et par version d’Android. Toutes les équipes ne sortent pas des ROM pour tous les modèles de téléphone ; certains accessoires ne fonctionnent pas dans les premières versions des ROM – par exemple, le lecteur d’empreinte digitale de mon téléphone ne fonctionne pas encore ; certains modèles de téléphone n’ont pas de ROM supportant suffisamment les accessoires du téléphone pour être exploitables.

Pour mon expérience, n’ayant pas encore de téléphone Android, j’ai pu me permettre d’en choisir un qui soit connu pour être facilement pris en charge par les ROM personnalisées. Après quelques recherches, j’ai jeté mon dévolu sur le OnePlus 5T ; OnePlus est une des marques proposant les ROM officielles surchargeant le moins Android, ils publient les drivers afin de faciliter le travail, ils n’annulent pas la garantie constructeur pour installation d’une ROM personnalisée, et même cerise sur le gâteau, ils disent que le service client peut vous aider à récupérer un téléphone inutilisable suite à un tripatouillage mal maîtrisé. Et ce qui ne gâche rien, les spécifications techniques sont de haute volée : 128Go de mémoire de stockage, 8Go de RAM, 8 coeurs à 2.45Ghz, écran AMOLED 6 pouces 1080P, deux capteurs photo arrière 16 et 20 Mégapixels, un capteur photo avant 16 Mégapixels, vidéo 4K, le tout pour à peu près la moitié du prix de chez Samsung ou Apple, encore moins en occasion récente. Le téléphone reçu, on met les mains dans la cambouis ; personnellement, j’ai choisi OmniROM car c’était au moment de mon installation la seule ROM en Android 8.1 pour le OnePlus 5T.

Installation du système d’exploitation

Je ne vais pas rédiger un tutoriel d’installation complet, d’autres l’ont déjà fait bien mieux que je n’en serais capable. Un bon point de départ pour tout ce qui touche à l’installation et la maintenance des ROM est le site XDA developers qui a des forums par modèle, et des articles de présentation de très bonne qualité. Je vais juste résumer les différentes étapes pour donner une idée du niveau de complexité et de risque de l’opération :

  • sauvegarder toutes les données du téléphone avant de faire l’installation ; Android chiffre les données du téléphone, et l’installation du système d’exploitation doit tout effacer sinon une partie du stockage sera inaccessible. Moi, je n’avais pas le problème puisque le téléphone était vide
  • débloquer l’équivalent du BIOS – le bootloader ; pour cela, il faut télécharger les outils de développement Android, passer le téléphone en mode développeur, redémarrer le téléphone avec l’équivalent des options BIOS sous PC, le connecter en USB à son ordinateur, et lancer en ligne de commande des outils fournis avec les outils de développement Android. Par la suite, quand votre téléphone démarrera, il vous avertira que le processus de démarrage est débloqué et que c’est très dangereux !
  • installer TWRP qui est une application de démarrage contournant le système d’exploitation standard, un peu comme une clé USB ou un CD sur lequel on démarre avec un PC à la place du système d’exploitation installé. Android ne permet pas d’installer un système personnalisé depuis le système standard.
  • envoyer sur le téléphone la ROM choisie par transfert USB en dehors des partitions de données des applications
  • une fois TWRP installé, démarrer le téléphone avec, effacer les partitions de données – là, si vous n’avez pas sauvegardé, tant pis pour vous ! – redémarrez avec TWRP, et utilisez TWRP pour installer la ROM. C’est là où j’ai souffert, car au redémarrage juste après l’effacement, le système d’exploitation qui était toujours là reprenait la main et chiffrait à nouveau la partition de données. Il m’a fallu éteindre comme un bourrin le téléphone avant que le système ne prenne la main, pour forcer le redémarrage sur TWRP depuis les outils Android

Vous y êtes, au démarrage suivant, vous devez voir l’écran OmniROM.

Attention ! Quand vous installez une ROM personnalisée, en général, on vous dit d’installer d’une part la ROM, et d’autre part les « GApps » depuis le site OpenGApps. Si vous voulez être libéré de Google, n’installez surtout pas les GApps, qui contiennent tous les services Google, n’installez que la ROM que vous avez choisie.

Les habits neufs de votre téléphone

Je ne vous cacherai pas qu’à cet instant de l’expérience, votre téléphone va vous sembler un peu tout nu. Vous aurez les applications suivantes, fournies par OmniROM :

  • téléphone (si si, je vous jure, on peut téléphoner)
  • SMS / MMS
  • Chromium (version open source du navigateur web de Google)
  • Calculatrice
  • Agenda (mais sans compte Google on ne peut rien en faire…)
  • Paramètres
  • Appareil photo (de base de chez de base)
  • Contacts (marche en local, pas besoin de compte Google)
  • E-mail (vraiment pas top)
  • Egaliseur
  • Fichiers
  • Galerie (pour parcourir les photos et les vidéos)
  • OmniSwitch (pour changer d’application facilement, chouette outil)
  • Phonograph (lecteur audio, je ne l’ai pas essayé)
  • Search (qui lance Google !)

Et c’est tout. En particulier, vous n’aurez pas de magasin d’application. J’ai donc commencé par installer trois magasins d’application :

  • F-Droid qui ne contient que des applications open source (même si parfois elles s’appuient sur des services moyennement ouverts, auquel cas c’est indiqué clairement)
  • Aptoide
  • Uptodown

Avec ces deux derniers, vous aurez à peu près toutes les applications gratuites. Vous devrez autoriser toutes ces applications à installer des logiciels sur votre téléphone, c’est un peu casse-pieds mais ça ne se fait qu’une fois.

Une fois des magasins installés, vous pouvez partir à la chasse aux applications ; personnellement, j’ai installé :

  • Firefox avec recherche via Qwant
  • VLC (lecteur vidéo qui lit tout ce que vous pouvez imaginer, et plus encore)
  • un scanner de QR Code
  • AnySoft Keyboard pour remplacer le clavier de base que je ne trouve pas terrible
  • Authenticator pour sécuriser en deux facteurs (remplacement de Google Authenticator)
  • ConnectBot pour faire du SSH
  • Document Viewer pour lire les PDF et EPub
  • Mastalab pour accéder à Mastodon
  • Open Camera qui remplace avantageusement l’appareil photo d’OmniROM
  • PasswdSafe pour gérer les mots de passe (je synchronise mon fichier de mots de passe entre mes machines avec owncloud, voir ci-dessous)
  • SquareHome 2 comme écran d’accueil, pour retrouver l’interface de Windows Phone que j’aimais bien
  • Spotify
  • RD Client pour accéder en terminal server à des machines Windows
  • Ring pour des communications chiffrées de bout en bout en peer to peer, si vous voulez vous assurer que vos communications voix ne soient pas interceptées
  • Quelques autres sur lesquelles je vais revenir plus en détails

Google a longtemps misé sur la qualité de ses services pour les imposer auprès des utilisateurs, ce qui me semble être une façon de faire plutôt saine ; depuis quelque temps, ils ont ajouté une corde à leur arc, qui est que certaines fonctionnalités du téléphone, comme les notifications, ne marchent que si les GApps sont installés. Du coup, pas de notifications pour moi, et certaines applications refusent de s’installer ; la seule que j’ai rencontrée est celle de la chaîne météo, mais comme j’évite au maximum les applications mangeuses de données personnelles, j’en ai sans doute raté pas mal.

Et les services tiers ?

Les applications que j’ai omises ont pour point commun de s’appuyer sur des services tiers, qu’il s’agit de remplacer par des services plus respectueux de la vie privée.

Cartographie

Exit Google Maps, que peut-on utiliser d’autre ? Une alternative ouverte existe, dont j’ai déjà parlé dans mon article de l’année dernière, OpenStreetMap. Plusieurs applications utilisent les données d’OpenStreetMap pour offrir des services de cartographie sous Android, j’ai personnellement choisi OsmAnd~ qui permet de télécharger les cartes en local sur le téléphone afin d’avoir des cartes hors ligne – 1.8Go pour la carte générale monde et la carte routière française. Je lui ai adjoint AddressToGPS qui fournit un proxy vers les services de géocodage de Google pour les adresses inconnues d’OpenStreetMap, afin que Google ne puisse pas journaliser vos appels. Non seulement OsmAnd~ vous libère du pistage de Google, mais en plus il vous apporte la fonctionnalité hors ligne ; OsmAnd~ est utilisable y compris sur les téléphones non libérés.

Courrier électronique

Pour mon courrier personnel, j’utilise depuis fin 1997 un compte Yahoo ! Mail. Evidemment, Yahoo ! n’étant pas une société philanthropique, et gérer un service de courrier électronique étant coûteux – en particulier pour s’opposer aux spams – Yahoo ! a forcément gagné de l’argent d’une façon ou d’une autre en me fournissant ce service. Or, seule la connaissance du contenu de mes communications,  le profil de moi que l’on peut en retirer pour me cibler, ne peuvent avoir une valeur ; c’est d’ailleurs explicite à l’article 15 de leurs CGU. On y découvre également que Yahoo ! peut transmettre vos données sur demande gouvernementale ; malgré les lois sécuritaires votées en France, nous ne sommes pas encore en Chine communiste, mais tant qu’à faire, je préférerais que mes conversations privées restent privées, sans compter que le FBI et la NSA surveillent les courriels Yahoo !.

Pour ce faire, il est possible de faire tourner son propre service de courrier électronique, mais d’une part, c’est coûteux en ressources systèmes, et d’autre part, ça prend un temps fou pour maintenir un bon fonctionnement du système. Sans compter que sécuriser ses courriels correctement est loin d’être simple.

Heureusement, des services existent qui fournissent des courriels sécurisés :

  • LavaMail : rendu célèbre par son utilisation par Edward Snowden, puis par sa fermeture abrupte à laquelle s’est résigné le fondateur de LavaMail quand le FBI lui a demandé de compromettre la sécurité de la plateforme, LavaMail a récemment ressuscité tel le Phénix, offrant 5Go de stockage pour 30$ par an
  • ProtonMail : développé au CERN, là où internet est né, et hébergé en Suisse qui actuellement a des lois sur l’hébergement de données semblables à celles que nous avions en France avant les lois Cazeneuve, c’est-à-dire très protectrices pour les données personnelles. Une offre gratuite de 500Mo de stockage est complétée par plusieurs offres payantes (4€ / mois pour 5Go et un domaine personnalisé, 6,25€ / mois pour 5Go et un domaine personnalisé partageable avec plusieurs utilisateurs)

Le prix peut sembler a priori élevé, mais il se justifie tout à fait :

  • d’après nos statistiques sur les domaines que nous gérons, 92 % des courriels reçus sont des spams. Et trier les spams des courriels légitimes, ça demande de grosses capacités de calcul
  • les courriels sont chiffrés de bout en bout (si tant est que le deuxième bout est sur le même service) ; le principe est le suivant : chaque utilisateur a une clé de chiffrage asymétrique, et chiffre les courriels reçus avec sa clé publique. Du coup, seul lui peut les relire avec sa clé privée. Or, le chiffrage asymétrique sur de gros volumes de données, comme un courriel à pièces jointes, est très coûteux en temps de calcul, raison pour laquelle on le limite habituellement à transmettre des secrets partagés de petite taille (quelques centaines d’octets)

Le prix résultant de ces contraintes est d’environ 50 % plus élevé que pour un service de courriel professionnel standard comme Exchange Online. Le prix du respect de la correspondance privée…

J’ai choisi ProtonMail en version payante pour bénéficier du domaine personnalisé. ProtonMail a un client web et des applications pour Android et iOS ; l’application Android a besoin des GApps pour les notifications, donc pas de notifications pour moi, mais à part ça tout marche très bien. Par ailleurs, vous pouvez maintenant sous Windows utiliser ProtonMail avec un client classique comme Thunderbird ou Outlook avec le ProtonMail Bridge ; c’est un logiciel qui fournit un service IMAP et SMTP local qui effectue les opérations de chiffrement et de déchiffrement nécessaires pour converser avec les serveurs de ProtonMail.

Il a également fallu modifier mon adresse partout où elle était utilisée, ce qui n’est pas une mince affaire, et j’ai également récupéré mon historique de courriels stocké chez Yahoo !. Pour ce faire, j’ai utilisé un outil en ligne de commandes nommé imapsync, qui lit vos courriels sur une source IMAP et le transfère vers une destination IMAP, en collaboration avec le ProtonMail bridge. Pour un historique depuis fin 1997, de l’ordre de 2Go de courriels, c’est trèèèèèèèèès long, mais ça fonctionne. La seule chose à savoir est que les dossiers personnalisés de ProtonMail sont stockés sous le nom Folders/[NomDossier], y compris quand on le crée sous le nom [NomDossier] ; du coup, on est obligé d’utiliser l’option –f1f2 pour forcer le nom du dossier de destination, car imapsync croit créer le dossier [NomDossier] et ne le retrouve pas ensuite. Par ailleurs, je n’ai pas réussi à utiliser des dossiers avec des espaces dans les noms, mais il suffit de les renommer avant le transfert.

Stockage distant

Il est très pratique de retrouver ses fichiers où que l’on se déplace, ainsi que de synchroniser automatiquement les photos et vidéos prises sur son téléphone vers un système de stockage « dans le cloud ». Malheureusement, par défaut, sous Android, tout part dans Google Drive, ou tout autre service équivalent, DropBox, OneDrive, etc. Depuis quelques années, j’utilise deux NAS Synology dans deux emplacements physiques distincts afin de conserver mes fichiers et ceux de ma famille, synchronisés entre eux. Synology offre un outil nommé « Synology Cloud Station » pour se créer son stockage en ligne personnel, mais il est peu configurable et synchronise par défaut tout le contenu des dossiers sur la machine locale, ce qui est gênant sur des dispositifs avec peu de mémoire comme un téléphone.

J’ai donc choisi d’installer owncloud sur un de mes NAS. Pour des raisons d’optimisation, je n’ai pas utilisé la méthode la plus simple, à savoir installer Apache et MySQL, j’ai préféré utiliser le serveur web et la base de données par défaut du Synology, soit nginx et postgresql. Une fois les difficultés d’installation dues à ce choix passées, l’outil est très agréable à utiliser, l’installation et la configuration des applications sur Android et Windows sont très simples, et l’envoi automatique des photos et vidéos vers les disques marche parfaitement. Et 2To de stockage personnel gratuit ! Enfin, sans abonnement, car si vous voulez vous assurer des sauvegardes correctes, le montage en synchronisation et l’achat de deux NAS revient à quelques centaines d’euros et quelques heures de jeu pour configurer le tout.

Autres migrations

Le transfert de documents est évidemment assez facile, quoique pour un utilisateur de Windows Phone, le fait que le câble USB n’ait qu’une fonctionnalité à la fois – transférer, déboguer ou recharger – est un peu étonnant. Pour les SMS et MMS, j’ai utilisé la fonctionnalité d’export en XML des SMS de Windows Phone, une transformation XSLT, puis l’outil d’import d’Android, puisque les formats XML ne sont pas les mêmes.

Conclusion

Pour quelqu’un qui n’avait jamais fait ça, mais qui sait se débrouiller avec un ordinateur, avec un téléphone réputé pour sa facilité de déblocage, monter un téléphone libéré et les services correspondants m’a pris environ 5 jours de travail, en comptant la synchronisation des deux NAS. Les coûts additionnels sont de quelques centaines d’euros pour les NAS, et 75€ par an pour les courriels – mais si vous pouvez vous limiter à conserver 500Mo de courriels, vous pouvez avoir un service de courriel sécurisé gratuit.

Vous ne devenez pas indétectable pour autant, puisque vous restez reconnu par votre carte SIM, que les IMSI catcher marchent toujours et que les trous de sécurité dans les algorithmes GSM sont toujours là, mais on ne peut pas faire beaucoup mieux sans avoir à monter un réseau mondial de communication personnel.

Enfin, on ne va pas se prendre pour Jean Moulin en 1943, mais à voir les dizaines de messages que j’ai reçus de Google pendant la procédure – littéralement : entre activer la localisation de 4 ou 5 manières différentes à chaque redémarrage, ne faites pas ci ou pas ça c’est dangereux, votre téléphone n’a pas toutes les applications Google envoyé deux ou trois fois sur toutes mes adresses de contact – le fait que Google a déréférencé sans explications ProtonMail pendant 9 mois, ou que ProtonMail a subi une attaque d’une ampleur peu commune qui fait penser à un Etat ou une entité de taille comparable, on se dit qu’avec ses petites bidouilles sur son téléphone, on insère un tout petit coin dans un modèle qui, bien que n’ayant même pas l’âge légal pour boire de l’alcool, a créé la structure d’un possible Etat de surveillance généralisé.

Les fake news ne sont pas le problème

Lors de ses voeux à la presse, le Président de la République a annoncé vouloir une loi sur les fake news. Dans cet article, je laisserai de côté deux aspects intéressants de la question : d’une part, l’aspect philosophique de savoir ce qu’est la vérité et si elle est atteignable, et d’autre part, l’aspect juridique de savoir qui doit décider de ce qu’on considère comme étant la vérité dans notre société démocratique. A la place, je vais vous raconter une histoire digne d’Hollywood, avec des espions russes, un savant fou, des hommes politiques à la ramasse et à la coiffure improbable, et un grand méchant dans l’ombre qui attend de rafler la mise.

Blame Russia

Si vous n’avez pas passé l’année 2017 dans une grotte coupée de la civilisation, vous devez avoir entendu parler des accusations d’intervention de la Russie dans la campagne électorale présidentielle américaine. Ces interventions auraient pris des formes variées :

Le tableau semble complet et digne d’un film d’espionnage ; la plupart des médias ne parle que de cette filière russe dans les manipulations de l’opinion pour l’élection de 2016. Et quasiment aucun ne parle des deux personnages centraux de l’histoire, le savant fou et le génie du mal, et c’est pourtant d’eux que vient le vrai danger.

M. Brexit

En 2008, Michal Kosinski, un jeune chercheur polonais, est accepté à l’université de Cambridge pour y travailler au psychometrics center. Pour ses recherches, il utilisa Facebook pour créer une base de données de profils psychologiques sur la base de tests de personnalité ; il pensait obtenir les profils de ses potes de fac et de quelques unes de leurs connaissances, et finalement, il se retrouva avec des millions de profils donnés volontairement par des inconnus.

Loin de s’arrêter à ce premier exploit, il décida d’aller plus loin : comparer les profils psychologiques obtenus par cette méthode classique du questionnaire avec les like des participants. Comme les tests avaient pris la forme d’une application Facebook à laquelle les utilisateurs avaient donné le droit d’accéder aux like, c’était techniquement facile et autorisé par la plateforme – ça l’est toujours, j’y reviendrai. Sur la base de cette comparaison, il réussit à construire un outil créant un profil psychologique sur la base des like, partages et commentaires Facebook. Avec une soixantaine de like, en 2012 – il y a une éternité à l’échelle des progrès actuels des intelligences artificielles – cet outil pouvait déterminer la couleur de la peau avec 95 % de taux de réussite, l’orientation sexuelle avec 88 % de taux de réussite et l’affiliation politique avec 85 % de taux de réussite. Avec 300 like, Kosinski disait en savoir plus sur une personne que son conjoint, et avec encore plus, découvrir des tendances personnelles dont même l’individu n’était pas conscient – là aussi, j’y reviendrai.

En 2014, Kosinski fut approché par un certain Aleksandr Kogan pour utiliser ses recherches, dont il finit par comprendre qu’il travaillait pour une société dont le but était de manipuler les élections. Il refusa, tout en sachant très bien que ses recherches étant publiques, ce n’était que reculer pour mieux sauter. Comme quoi on est vraiment dans un James Bond, Aleksandr Kogan a officiellement changé son nom en Aleksandr Spectre, et étant donné qu’il a un doctorat, cela fait de lui le Docteur Spectre.

Quand après le brexit, on entendit parler d’une société nommée Cambridge Analytica ayant aidé par du ciblage psychologique fin les pro-brexit, tous les initiés britanniques de ces questions ont immédiatement pensé au Docteur Kosinski, qui dut expliquer qu’il n’y était pour rien, et qu’il avait même refusé de tels projets.

Vous me voyez venir : l’équipe de campagne de Donald Trump a utilisé les services de Cambridge Analytica, pour un montant total de l’ordre du million de dollars. Le principe était simple : créer des profils électoraux et politiques d’utilisateurs de Facebook dans les swing states, ces états qui peuvent basculer dans le camp démocrate ou républicain, et qui en général font ou défont les élections présidentielles, puis cibler ces gens avec des messages personnalisés pour faire changer leur vote. Comment Donald Trump a t’il gagné l’élection présidentielle ? Par des victoires surprises dans les swing states. Hillary Clinton, qui a pourtant passé sa vie dans la sphère politique américaine, et qui était opposée à un novice, s’est fait blouser sur l’aspect le plus battu et rebattu de l’élection présidentielle américaine, et son équipe de vainqueurs avec elle.

Vous n’avez pas entendu parler de cette version de la manipulation électorale de 2016, où ce ne sont pas des méchants russes qui tripatouillent les cerveaux, mais de bons américains bien de chez eux, Donald Trump et sa mèche à leur tête, Facebook en support bienveillant ? C’est normal, presque aucun média n’en a parlé, et pourtant des plaintes ont été déposées, et l’enquête officielle s’y intéresse. C’est moins vendeur, coco.

Le profilage en ligne, un risque pour la démocratie

Revenons maintenant à la loi sur les fake news souhaitée par notre Président. Outre le fait qu’en France on punit déjà la diffamation, la calomnie, et même la diffusion de fausses informations, j’affirme que les fake news ne sont pas un vrai problème. En effet, la solution est déjà connue, accessible à tous, et diffusée à notre jeunesse : questionner toute information un tant soit peu extraordinaire et apprendre à rechercher les sources. Je ne dis pas que c’est facile à faire, je ne nie pas le coût cognitif et en temps perdu induit par les solutions, mais se tromper est toujours plus coûteux que de vérifier, et non seulement on a déjà des solutions, mais de plus ces solutions ont des effets secondaires appréciables : renforcement de l’esprit critique, apprentissage de la méthode scientifique, accès à des questionnements philosophiques, etc.

Par contre, la méthode de Cambridge Analytica décrite ci-dessus est un vrai risque pour la démocratie : nul n’est besoin d’inventer des informations fausses, ni même de les caviarder. Il suffit pour se transformer en marionnettiste de l’opinion de choisir et pousser des informations vraies, vérifiables, mais bien sélectionnées pour être susceptibles de changer l’avis de la personne d’après son profil psychologique et politique, et ce sur le nombre limité d’électeurs ou de décideurs suffisant pour faire basculer un choix. Quand on lit le livre blanc de Facebook sur les influenceurs d’opinion, conséquence de l’enquête américaine, on constate que cette méthode n’est pas dénoncée ; il est d’ailleurs intéressant de noter dans ce document d’avril 2017 que les mesures envisagées par Facebook en collaboration avec les autorités sont miraculeusement alignées sur ce qu’a déclaré notre Président. A moins que la chronologie – et une pointe de mauvaise foi ? – ne nous pousse à dire que c’est l’inverse. Décidément, bien que seul le Danemark ait nommé un ambassadeur auprès des GAFA, il semblerait de plus en plus que ceux-ci interagissent avec les États d’égal à égal. Ne leur manque plus que la territorialité – enfin pour l’instant.

Cette non dénonciation de ces pratiques de profilage ne peut pas étonner ceux qui me lisent régulièrement : c’est le business model même de Facebook ! Quand certains écrivent que les journalistes sont gonflés de se plaindre des chauffards du bobard, alors qu’eux-mêmes n’en sont pas toujours exempts, je dis que  Facebook serait gonflé de se plaindre du profilage de ses utilisateurs puisque c’est le gros de sa valeur capitalistique. Et on ne s’étonnera donc pas que les outils technologiques qui permettent ces méthodes – like, commentaires, partages accessibles aux applications tierces sur autorisation de l’utilisateur –  existent toujours dans Facebook, et ne disparaîtront pas. Par contre, à coup de « meilleurs commentaires », Facebook s’érige de plus en plus en censeur, automatique bien sûr, et il devient de plus en plus difficile de mener des discussions complexes et argumentées dans les fils de commentaires.

Une solution partielle contre ces pratiques existe, la veille informationnelle (exemple), dont les principes sont de multiplier ses sources d’information et de penser volontairement contre soi-même en écoutant tout le monde, y compris des personnes pour lesquelles on a une aversion naturelle, mais d’une part, ce n’est qu’une solution partielle car les mécanismes mentaux qu’exploite Cambridge Analytica sont des biais cognitifs naturels de l’être humain, et qu’on en soit conscient ou non, on y reste sujet, et d’autre part, contrairement à l’application de la méthode critique, le coût cognitif est ici gigantesque : lire un maximum de sources prend un temps considérable, et s’infuser des contenus dont vous savez d’avance que les trois quarts vont vous faire sauter au plafond est exténuant. J’en sais quelque chose, je suis un libéral qui lit parfois le monde diplomatique !

Le profilage, un risque pour l’humanisme ?

Pour finir, j’aimerais élargir la réflexion sur ces conséquences du profilage au-delà des élections. Je ne pense pas que les intelligences artificielles soient proches d’acquérir la conscience – vous pouvez lire cet article lumineux sur la question – mais cela ne veut pas dire qu’elles sont sans risque. Les intelligences artificielles effectuent de mieux en mieux des tâches que l’humain fait naturellement : reconnaissance de la parole, des émotions, catégorisation d’objets dans des photos, analyse de dossiers, etc. Encore plus fort, comme évoqué ci-dessus, l’intelligence artificielle devient capable de déterminer des corrélations qu’aucun être humain ne serait capable de trouver, car elles impliquent de raisonner sur un volume d’information trop grand pour l’esprit humain.

La tentation est alors grande de laisser les intelligences artificielles prendre de plus en plus de décisions, l’argument, tout à fait rationnel, étant qu’elles prendront de meilleures décisions que les humains. Et c’est là qu’est le risque pour l’humanisme : si une intelligence artificielle nous connaît mieux que nous-mêmes, et prend de meilleures décisions pour nous que nous-mêmes, que nous reste t’il comme liberté ? Comment éviter la standardisation, comment conserver la créativité qui naît du chaos ? On pourrait penser que ce risque est aussi lointain que celui de voir Terminator sonner à notre porte, mais de nombreux indices laissent penser que non : la nourriture standardisée qui libère de la soit-disant tyrannie de la bouffe existe déjà et se vend plutôt pas mal, l’intelligence artificielle aide les analyses génétiques et l’association des médecins américains spécialistes de la fertilité considère que choisir un embryon sur la base d’un scoring génétique est à la fois justifié et éthique et l’amélioration de l’humain par des puces dans le cerveau est en marche.

Et si le risque n’était pas des manipulations grossières et aisément démontables pour qui est armé intellectuellement, mais des technologies et des usages qui sapent le fondement même de notre libre arbitre, et qui sont le business model de ceux à qui on va confier la surveillance ? M. le Président, recevez Eric Léandri, PDG de Qwant, ou Tim Berners-Lee, un des inventeurs du web, et pas Tim Cook, PDG d’Apple. Au lieu de négocier avec Facebook les couleurs du papier peint de la prison, faites péter ses murs.

L’ère du monopole cognitif

Lors de la dernière conférence « e-commerce one to one 2017 », Guillaume Bacuvier, vice président de la publicité chez Google, a décrit dans sa présentation « The age of assistance » (l’ère de l’assistance) la direction qu’allait prendre leurs outils de recherche. D’après Google, les internautes sont toujours plus des mobinautes, ce qui multiplie les accès à internet, devenu toujours disponible, ils parlent de plus en plus de vive voix à leur téléphone intelligent et ils utilisent plus les messageries privées que les réseaux sociaux. Ils en déduisent que nous arrivons dans l’ère de l’assistance, où la relation avec les outils technologiques doit devenir personnalisée à l’extrême et où l’internaute ne recherche plus des informations, mais pose des questions auxquelles il veut des réponses ; ces questions sont toujours plus personnelles, et font toujours plus appel au contexte – position géographique, préférences personnelles, questions précédentes, etc. Vous avez dans votre poche une petite intelligence artificielle qui vous connait mieux que votre meilleur ami ou que vous-même, au moins analytiquement si ce n’est sentimentalement, et avec qui vous conversez, comme avec ces chatbots qui peuplent les services client des sites e-commerce. L’acmé de cette vision est que le moteur de recherche ne donne plus des wagons de réponses que l’internaute consulte, mais la réponse que vous cherchez. Ca semble super, hein ? Détrompez-vous : c’est la plus belle machine à rendre con depuis l’avènement de la vie sur cette planète.

La pensée méditante

Qu’il fut un nazi de circonstances ou un nazi de conviction, Heidegger n’en a pas moins mené des réflexions incontournables, en particulier sur l’homme et la technique, dont ces quelques paragraphes de « Sérénité » (Questions III) :

« Lorsque nous dressons un plan, participons à une recherche, organisons une entreprise, nous comptons toujours avec des circonstances données. Nous les faisons entrer en ligne de compte dans un calcul qui vise des buts déterminés. Nous escomptons d’avance des résultats définis. Ce calcul caractérise toute pensée planifiante et toute recherche. Une pareille pensée ou recherche demeure un calcul, là même où elle n’opère pas sur des nombres et n’utilise ni simples machines à calculer ni calculatrices électroniques. La pensée qui compte calcule. Elle soumet au calcul des possibilités toujours nouvelles, de plus en plus riches en perspectives et en même temps plus économiques. La pensée qui calcule ne nous laisse aucun répit et nous pousse d’une chance à la suivante. La pensée qui calcule ne s’arrête jamais, ne rentre pas en elle même. Elle n’est pas une pensée méditante, une pensée à la poursuite du sens qui domine dans tout ce qui est.
Il y a ainsi deux sortes de pensée, dont chacune est à la fois légitime et nécessaire : la pensée qui calcule et la pensée qui médite.
Or c’est cette seconde pensée que nous avons en vue lorsque nous disons que l’homme est en fuite devant la pensée. Malheureusement, objectera-t-on, la pure méditation ne s’aperçoit pas qu’elle flotte au-dessus de la réalité, qu’elle n’a plus de contact avec le sol. Elle ne sert à rien dans l’expédition des affaires courantes. Elle n’aide en rien aux réalisations d’ordre pratique.
Et l’on ajoute, pour terminer, que la pure et simple méditation, que la pensée lente et patiente est trop « haute » pour l’entendement ordinaire. De cette excuse il n’y a qu’une chose à retenir, c’est qu’une pensée méditante est, aussi peu que la pensée calculante, un phénomène spontané. La pensée qui médite exige parfois un grand effort et requiert toujours un long entraînement. Elle réclame des soins encore plus délicats que tout autre authentique métier. »

Heidegger y expose deux types fondamentaux de pensée : celle qu’il appelle la pensée calculante, que nous utilisons quand nous voulons aller d’un point A défini à un point B défini, et la pensée méditante, qui part d’un point A – après tout, on est toujours quelque part – et qui ne se déplace que pour le plaisir de se déplacer, sans but défini ni fin programmée. L’ordinateur est évidemment le roi de la pensée calculante : non seulement, il ne sait rien faire d’autre, mais en plus, une fois lancé, il est d’une efficacité qu’aucun être humain ne saurait approcher. De manière plus générale, toute machine, quelle qu’elle soit, est calculante de la façon dont Heidegger le définit.

Le lien hypertexte, arme de déambulation massive

Le lien hypertexte, composant fondamental du web, est une rareté en ce sens qu’il est un outil technique qui aide la pensée méditante. Qui ne s’est jamais perdu sur internet en se demandant comment, de fil en aiguille, il avait atterri sur ce site personnel rempli de remarques parfois amères mais toujours percutantes d’un expatrié au Japon ? Et souvent, par erreur, vous direz avoir perdu votre temps à surfer, alors que rien n’est plus rare et précieux dans notre monde couturé de techniques et de pensée calculante qu’une simple promenade sans but, qui au moindre détour peut vous ravir d’une découverte délicieusement inattendue…

Comme je l’ai déjà expliqué, une trop grande personnalisation des résultats de recherche a tendance à vous enfermer dans votre propre univers mental ; de la même façon, ne s’informer que via les réseaux sociaux vous restreint à votre tribu. Ce que Google propose dans cette ère de l’assistance est l’aboutissement ultime de cet appauvrissement cognitif. Le peu de hasard qui restait dans la possibilité que vous consultiez un résultat de recherche loin dans les pages au delà de la troisième ou quatrième est totalement évanoui : Google vous renvoie un résultat, votre résultat, et de toutes façons, l’interface est tournée de façon non pas à ce que vous cherchiez une ou plusieurs informations, mais que vous posiez une question dont Google cherchera à tout prix à éliminer toute équivoque en la recontextualisant.

Un totalitarisme soft ?

Nous en arrivons ici à la conjonction mortifère de deux tendances technologiques : la domination de Google sur la recherche d’information sur internet, qui amène à des aberrations comme le fait qu’on en vienne à appeler « web profond » ou « dark web » ce qui n’est pas accessible depuis Google – comme si ne pas être visible de Google était un nouveau péché mortel – et la catastrophe cognitive que constitue la personnalisation à outrance de l’accès aux données. Vous êtes désormais enfermés dans le web que Google pense être le plus adapté à vous. Si ce n’est pas l’outil rêvé de tous les dictateurs, ça y ressemble furieusement. Regardez parmi les questions qu’ont posées les internautes pendant le débat à 11 de la présidentielle : on y retrouve deux perles qui me semblent surréalistes, « pourquoi ne pas voter Fillon ? » et « pourquoi ne pas voter Macron ? ». Le journaliste, visiblement interloqué, conclut par « à vous de voir » ; pourvu que ça dure !

Je ne suis évidemment pas le seul à voir les choses sur cet angle et à alerter ; par exemple, le philosophe Slavoj Zizek a réagi de la même façon face à l’annonce d’une des nombreuses entreprises d’Elon Musk de vouloir développer une interface directe cerveau – intelligence artificielle, qui viendrait parachever le tableau ci-dessus. Il est plus difficile d’effectuer une opération du cerveau à quelqu’un qu’on veut extraire de cette domination cognitive que de lui casser son téléphone android… Il pose également deux constats à mon sens incontournables pour répondre au problème : d’une part, quand quelque chose est techniquement faisable, cette chose sera faite, aucune considération morale n’arrête jamais bien longtemps la technique, et d’autre part, l’arrivée de ces techniques aura pour conséquence que la capacité à raisonner sans l’aide de ces assistants, et bien évidemment la capacité à les programmer et à les comprendre, sera très probablement la marque prochaine de ceux qui domineront la société. Il se pose enfin la question de savoir qui contrôlera ces outils : une telle puissance détenue par une entreprise commerciale fait naturellement froid dans le dos, mais dans les mains d’un Etat, qu’il soit démocratique au départ ou non, ce n’est pas plus réjouissant. La seule personne à qui je veux bien laisser le monopole cognitif de mon cerveau, c’est moi.

Comment éviter le monopole cognitif ?

Les premiers auxquels je pense en écrivant cet article sont mes enfants : je suis formé, qui plus est à l’informatique, la science du traitement de l’information, et je suis conscient de ces problématiques, je suis donc déjà sauvé du risque. Des adultes ayant vécu leurs années formatrices jusque grosso modo la fin des années 2000 ont été au contact d’autres formes d’acquisitions de l’information, même si il serait naïf de croire que la situation antérieure était idyllique ; si, par exemple, le taux d’illettrisme monte avec l’âge, ce n’est pas parce qu’on apprenait mal à lire il y a 50 ans, mais simplement parce que les gens perdent la capacité à lire et comprendre un texte si ils ne la pratiquent pas ; une fois sorti de l’école, une bonne partie de la population ne s’intéresse plus beaucoup à l’acquisition de connaissances, Google ou pas Google.

Mais maintenant, imaginez des enfants, tables rases, qui apprennent tout collés à leur doudou cognitif en permanence, pour qui toute réponse est à portée de requête vocale – même plus textuelle, ce qui avait au moins la vertu de les faire lire et écrire – quelle valeur donneront-ils à la connaissance ? Car même dans l’ère de l’assistance, quand on veut atteindre un niveau élevé dans quelque domaine que ce soit, puis créer et innover, il faut construire dans son esprit une pyramide du savoir solide pour se projeter vers l’avant. Par ailleurs, qui va influencer qui quand l’intelligence artificielle va s’adapter aux goûts et préférences d’un être qui n’est pas formé ? A l’instar du peuple de 1984 qui perd sa capacité à exprimer certaines notions non souhaitables par l’Etat, ces enfants auront-ils la capacité d’extraire des informations ailleurs que chez Google ?

Il faut donc en premier lieu éloigner les enfants en phase d’apprentissage de ces outils au minimum jusqu’à ce qu’ils soient capables de comprendre l’importance de s’informer à des sources les plus diverses possibles, de ne pas s’enfermer dans sa sphère personnelle, d’exercer sa pensée méditative régulièrement, et que toute connaissance valable et un tant soit peu complexe s’acquiert dans les livres, qu’on les lise sur du papier ou en électronique, et pas dans un tweet ou un post facebook qui ne peuvent être plus qu’un point de départ.

Pour les adultes, bien que l’avènement des technologies soit inévitable, leurs conséquences ne le sont pas. Afin d’éviter les risques de ce monopole cognitif, il est plus que jamais temps de pratiquer la pensée méditative en s’astreignant à s’extraire régulièrement de l’obligation de résultats. S’ennuyer, surfer sans but sur internet, tester une direction ou une autre juste pour voir si ça marche, tout ça n’est pas de la perte de temps, c’est une condition sine qua none de la condition d’être humain pensant libre. Plutôt que de poser des questions à votre ordinateur, et d’utiliser votre téléphone comme votre doudou cognitif, prenez-vous en mains, devenez chercheur d’informations, utilisez les outils qui ne vous profilent pas.

Par ailleurs, ces outils d’assistance peuvent être orientés d’une façon moins néfaste pour la pensée humaine : par exemple, on pourrait imaginer d’y introduire volontairement des éléments aléatoires, où l’intelligence artificielle nous surprendrait, nous faisant sortir de nos sentiers battus. Elle en est capable, encore faut-il que ses concepteurs en aient l’envie, et pas uniquement pour nous y faire passer de la publicité… Non, décidément, Google, qui tire le plus gros de ses revenus d’adwords, ne paraît pas être le mieux placé pour éviter l’ère du monopole cognitif !

Bonnes résolutions numériques pour 2017

En ce début d’année, les médias n’ont pas échappé au marronnier des bonnes résolutions, énumérant les grands classiques : faire du sport, arrêter la cigarette, s’imposer au boulot, voir plus souvent sa famille, etc. Pour rester dans la thématique de ce blog, je vais vous en proposer une version numérique, tournant toutes autour de la même idée : la reprise en main de votre identité numérique et de vos données.

Je considère que le débat public donne lieu à des exagérations sur le business model des services gratuits des GAFAM, en particulier sur la notion de travail gratuit que nous fournirions : quand on connait la difficulté et le coût d’extraire du sens de données saisies de façon non structurée par des non professionnels, il me semble abusif de parler de travail dissimulé. Par ailleurs, le business model des GAFAM est loin d’être monolithique : Apple gagne énormément d’argent avec son matériel et les royalties des applications extorquées aux développeurs, Microsoft avec ses licences, Amazon avec la qualité de sa logistique et de son service client, seuls Google et Facebook proposent principalement des services gratuits qui rapportent uniquement par les données utilisateur collectées pendant leur usage, directement ou indirectement.

Il n’en reste pas moins que je pense que les données que vous produisez, quelle qu’en soit la qualité, devrait vous appartenir au sens où vous devriez pouvoir en maîtriser l’utilisation et la diffusion dans le cadre d’un contrat clair et non léonin, ce qui n’est pas le cas aujourd’hui : une fois acquises, vos données peuvent être recoupées, agglomérées, moyennées, vendues et revendues sans que vous puissiez contrôler quoi que ce soit. On constate principalement deux attitudes face à cet état de fait aujourd’hui : une certaine forme de résignation – la qualité des services rendus dépasse largement le coût très difficile à évaluer du don des informations personnelles –  ou le désir de voir l’Etat s’emparer de la question, ce qui résulte en des lois quasiment toujours en retard d’un ou deux métros et le plus souvent inapplicables – l’initiative récente d’Axelle Lemaire sur le testing d’algorithme étant une exception qu’il convient de relever. Or, une troisième voie est possible : utiliser d’autres services aux contrats moins opaques, ou vous constituer votre propre service. Cette voie demande un peu d’investissement personnel, peut entraîner parfois des frustrations, mais la reprise en mains de vos données numérique est à ce prix.

Moteur de recherche

Le moteur de recherche de Google est le meilleur actuellement disponible du point de vue de la profondeur de l’analyse et de la compréhension de votre question et ce même pour des recherches très pointues. Vous pouvez toutefois considérer que ces qualités sont contrebalancées par le fait qu’il vous suive à la trace afin de vendre les meilleures publicités à ses clients annonceurs, qu’il soit susceptible d’abuser de sa position dominante – voir par exemple la relation sadomasochiste très étrange que Google entretient avec les organes de presse, très contents d’être référencés dans Google News, mais qui préféreraient que les contenus soient vus au maximum chez eux avec les publicités que leur régie vend – et, critique un peu moins répandue mais qui ne me semble pas la moins pertinente, qu’il dirige la pensée par plusieurs de ses fonctionnalités :

  • l’autocomplétion, au delà du gain de temps théorique qu’elle apporte, a tendance à orienter votre recherche vers soit le plus à la mode, et donc une certaine forme de conformisme, soit vers des recherches ou une façon de rechercher que vous avez déjà employées par le passé, et donc de vous enfermer dans votre mode de pensée personnel
  • le tri des résultats est autant une résultante de la pertinence des mots clés dans les pages en question que d’une forme de concours de popularité des pages traitant du sujet recherché et faisant un lien vers elles. Grosso modo, un bon référencement sur Google, c’est 35 % de travail sur les mots clés, et 65 % sur du partenariat ciblé. C’est une utilisation très intelligente d’une des notions fondamentales du web, le lien hypertexte, et un progrès manifeste par rapport aux moteurs de recherche d’avant 2000 en termes de pertinence de la réponse ; il n’en reste pas moins que là aussi, une forme de conformisme peut s’installer, sans parler de la course au pagerank pour obtenir un bon classement non pas par la pertinence du contenu, mais en exploitant le fonctionnement de l’algorithme
  • le tri des résultats prend également en compte vos choix personnels ; plus vous choisirez certains résultats dans la liste, plus ceux-ci seront susceptibles de vous être présentés en premier

Vous allez me dire que je ne suis jamais content : quand on me propose ce qui est populaire, je me plains du conformisme, et quand on me propose ce qui me plaît, je me plains qu’on m’enferme dans mon mode de pensée. Mais c’est parce que là aussi, il y a une troisième voie, qui est au cœur de la notion de lien hypertexte : le lien qui surprend, qui vous emmène là où vous n’aviez pas prévu d’aller, le vagabondage numérique, la flânerie 2.0.

Toujours est-il qu’il existe une alternative crédible à Google, que je peux recommander pour l’utiliser moi-même depuis plus d’un an, et que, cocorico, elle est française : je veux parler de qwant. Qwant ne place pas de cookie traceur sur votre navigateur – ce que vous pouvez vérifier – et n’enregistre pas votre adresse IP lorsque vous recherchez chez lui – là, il vous faudra faire confiance aux concepteurs du site. Du coup, il devient extrêmement difficile à qwant de vous retrouver et de tracer vos actions, pas uniquement par bonne volonté, mais parce qu’il n’a pas les informations qui lui permettraient de le faire, ce qui a l’avantage collatéral que quiconque récupérerait les données stockées par qwant, que ce soit des pirates ou l’Etat, n’aurait pas non plus ces informations. Les résultats de recherche sont donc également indépendants de vos actions, ce qui évite le risque de biais de confirmation.

Qwant n’est bien sûr pas exempt de défauts :

  • la pertinence des résultats « Actualités » et « Social » est pour le moins suspecte
  • la recherche d’images ne donne pas de très bons résultats ; je n’arrive pas à déterminer si il s’agit d’un choix volontaire de ne pas indexer toutes les sources d’images, ou juste un work in progress. Il est possible de lancer depuis l’interface de qwant une recherche image google avec le mot clé &gi
  • certaines recherches très pointues sont soit mal comprises, soit mal indexées, par exemple des codes d’erreur, des bouts de code informatique avec des caractères spéciaux ; google reste le meilleur là-dessus

Mais ces défauts restent mineurs : pour les textes, les recherches que je relance sur google faute de résultats pertinents représentent moins de 5 % de mes recherches pour le travail, et quasiment rien pour les loisirs.

Cartographie

Google Maps est un outil magnifique, d’une qualité technique indéniable, et reste le leader quand on prend en compte tous les paramètres purement fonctionnels. Cependant, comme la plupart des services gratuits, son mode de financement passe par la publicité ; si il est acceptable pour les utilisateurs de voir apparaître des noms de société ou de commerces sur la carte, que ceux-ci soient choisis sur la base d’un contrat passé avec Google plutôt que sur une indexation objective est déjà plus discutable, et le pire serait atteint si les itinéraires calculés prenaient en compte le passage devant un magasin ayant payé pour de la publicité – ce que les testeurs d’algorithme de l’INRIA pourront peut-être détecter. Google peut aussi être accusé de complaire aux demandes de certains pays pour conserver le droit d’y faire leur business plutôt que de s’appuyer sur les frontières internationalement reconnues.

Si vous souhaitez vous appuyer sur des cartes construites par un consensus et une philosophie ressemblant à ceux de wikipedia, openstreetmap est fait pour vous. Pas de streetview, pas de vue satellite, mais des cartes précises, mises à jour en continu, sans publicités, et libres de droits d’utilisation pour les développeurs, là où google maps a une politique changeante et peu accommodante en particulier pour les applications non publiques.

Le système cartographique est complété par un système de calcul d’itinéraires, OSRM. Disponible depuis peu de temps, uniquement en anglais et en allemand, les itinéraires calculés me semblent plutôt bons et s’affichent très rapidement. Les options sont évidemment moins nombreuses que sur google maps – pas d’itinéraire à pieds, en vélo ou en transports en commun – mais le service est très jeune et va certainement s’étoffer.

DNS

Ce chapitre parlera sans doute plus aux informaticiens qu’aux autres, mais le DNS public de Google (8.8.8.8) est très souvent utilisé comme DNS secondaire voire primaire pour se simplifier la vie ; il est public, gratuit, performant, et bien évidemment, Google ne le fournit pas par bonté d’âme, mais pour augmenter le volume de ses statistiques de consultation de sites webs. En général, le service DNS est également fourni par votre FAI, mais outre le fait qu’il peut implémenter des blocages – administratifs ou non – la plupart journalisent les appels comme Google et peuvent utiliser cet historique, se le faire voler par des pirates ou emprunter par l’Etat.

Pour éviter tout cela, vous pouvez utiliser les services de FreeDNS : gratuit, performant, sans journalisation et sans blocage.

Stockage dans le cloud

De nombreux services existent pour stocker vos données sur des serveurs extérieurs : OneDrive de Microsoft, Google Drive, Dropbox, etc. Ils apportent tous l’avantage d’être accessibles partout où vous avez une connexion internet, avec un débit si ce n’est optimal, au moins d’assez constamment bonne qualité. En général, une version gratuite est proposée avec une capacité de stockage limitée à quelques Go, et une version payante montant au To pour quelques euros par mois.

Le principe même de ces services est que vous ne sachiez pas, et que vous n’ayez pas à vous préoccuper de savoir où sont stockées physiquement vos données. Malheureusement pour vous, les lois nationales, elles, s’en préoccupent ; depuis les révélations d’Edward Snowden, chacun sait que les USA font ce qu’ils veulent des données stockées ou transitant par leur territoire, ce qui peut rendre chafouin tout particulier un tant soit peu paranoïaque, et peut se montrer critique pour des données d’entreprise susceptibles d’espionnage industriel. La France n’aura pas gardé longtemps un avantage concurrentiel sur ces questions, les dernières lois votées sous couvert de lutte contre le terrorisme ayant étendu les possibilités d’interception et de réquisitions de données à des domaines assez larges.

Les conditions générales d’utilisation sont aussi assez instructives sur ce que se permettent les prestataires eux-mêmes et ce qu’ils vous garantissent : ils peuvent lire le contenu de vos fichiers dans le cadre des services, en particulier les exif des photos qui contiennent des données de géolocalisation, ils stockent toutes les informations disponibles sur la façon dont vous utilisez le service – appareil utilisé, version, géolocalisation des accès. Comme on le voit de façon récurrente dans cet article, ces données peuvent être exploitées par le prestataire mais également par les Etats sur le territoire desquels les données sont stockées physiquement. En contrepartie, vous vous attendez sans doute à un accès universel – check – une sécurité de haut niveau – là, certains services dont dropbox ont déjà connu des ratés, sans parler de la disparition soudaine de megaupload – et des sauvegardes garanties. Ce dernier point est celui qui m’a le plus surpris en lisant les conditions générales des services : même dans le cas payant, aucun service ne vous garantit quoi que ce soit sur la non perte de vos données. J’ai personnellement connu des pertes d’emails chez Yahoo et chez GMail qui n’ont pas été corrigées.

En effet, on pourrait imaginer qu’une perte massive de données utilisateur faisant peser un risque de mauvaise publicité tellement énorme sur ce type de service qu’ils mettent en oeuvre des sauvegardes béton, surtout que ce sont des sujets assez bien maîtrisés en informatique. La réalité est que pour s’assurer de ses sauvegardes, on ne peut se passer de vérification humaine, coûteuse et peu factorisable, incompatible avec les tarifs pratiqués ; du coup ces services aussi bien conçus et automatisés qu’ils soient, doivent de temps en temps oublier un serveur ou perdre des sauvegardes physiques que ce soit par destruction, disparition ou détérioration du support. Le volume reste inférieur au seuil qui entraînerait une contre publicité, mais si ce sont vos données qui sont perdues, ça vous fait une belle jambe.

Des outils sont aujourd’hui disponibles pour vous permettre de mettre en place votre propre service de stockage décentralisé, mais pour être honnête, ça demande un peu de travail. Le principe est le suivant :

  • vous achetez deux NAS de même capacité (je n’ai aucune action ou intérêt chez eux, mais les NAS synology sont très bien par exemple)
  • vous en placez un chez vous, et un ailleurs (au bureau, chez un ami, un parent, quoi qu’il en soit un endroit physiquement séparé ; vous pouvez faire une sauvegarde uniquement pour vous, ou faire une sauvegarde croisée de vos données et de celles de la personne chez qui vous installez la copie)
  • vous utilisez les outils intégrés au NAS pour synchroniser les deux
  • vous vérifiez régulièrement et manuellement que la synchronisation se passe bien
  • vous ouvrez les interfaces d’accès distant qui vous intéressent (interface web, WebDAV, etc.)

Les deux derniers points demandent de la configuration sur votre routeur internet afin d’ouvrir sur internet vos NAS, et là effectivement il faut savoir un peu ce que l’on fait. Des solutions toutes intégrées existent comme Lima, mais elles sont évidemment moins souples – je vais reparler des autres fonctionnalités des NAS modernes un peu plus loin. Le désavantage de cette solution est évidemment que ses performances dépendent de celle de votre connexion internet : avec un ADSL à 10km du NRA, il ne faudra pas espérer un débit de l’ordre du Mo…

Qui de la sécurité, me direz-vous ? Je vais distinguer deux catégories de considération en termes de sécurité :

  • la sécurité physique : se protéger contre une défaillance matérielle, un cambriolage, un incendie, etc.
  • la sécurité informatique : se protéger contre un piratage – et là, même si vous pensez qu’un pirate n’aurait rien à faire de vos photos de vacances et que vous n’avez aucun document confidentiel, vous pouvez toujours être la cible d’un ransomware qui se multiplient ces derniers temps

La configuration que j’ai décrite règle le problème de la sécurité physique : il faudrait vraiment ne pas avoir de bol pour avoir un incendie, un vol ou une casse de disque dur aux deux endroits à la fois.

Pour ce qui est de la sécurité informatique, le mieux que vous puissiez faire est de n’ouvrir que les services que vous utilisez, d’utiliser des mots de passe solides – que vous n’utilisez pas ailleurs et en particulier pas sur des sites publics, au moins dix caractères et combinant lettre, chiffre et signe de ponctuation – et de mettre à jour régulièrement votre NAS et vos ordinateurs. Une fois que vous avez fait tout cela, il est toujours possible de subir une faille non corrigée, et là, une seule solution : vous devez sauvegarder régulièrement vos données sur un support physique que vous déconnectez du réseau et que vous rangez dans un tiroir jusqu’à la prochaine sauvegarde. Pour un particulier, c’est une mesure un peu paranoïaque, coûteuse en temps et en matériel, mais si vous voulez une sécurité quasiment totale, c’est obligatoire. Pour une entreprise, c’est un prérequis vital.

Email

Les services d’email gratuits se financent via la publicité, et pour se faire, ils lisent vos correspondances ; ils ne s’en cachent pas, c’est écrit noir sur blanc dans les conditions d’utilisation (voir le paragraphe vos contenus et nos services), et comme pour tous les services décentralisés, vos données sont sujettes aux lois de leur emplacement physique de stockage. Vous avez deux options pour atténuer ces risques :

  • il existe des services gratuits publics sans publicité et sans lecture des correspondances, par exemple Newmanity ou Mailoo ; ils ont l’avantage d’être très faciles à mettre en oeuvre, mais ne vous offrent pas de garantie sur la localisation des données (Newmanity héberge aux Pays-Bas, Mailoo semble-t-il en France – dedibox qui sont dans les datacenters d’Iliad et lost oasis – mais ce n’est pas très clair pour ce dernier), un espace de stockage limité – encore que 1Go pour des emails, c’est déjà pas mal – et moins de souplesse sur le nom de domaine par exemple
  • si vous êtes très motivés, vous pouvez monter votre propre serveur d’email, par exemple avec un de vos NAS ; ça coûte un peu de sous – pas beaucoup, une dizaine d’euros par an pour votre nom de domaine – et surtout pas mal de temps et d’apprentissage, puisqu’il faut configurer le DNS de votre nom de domaine vers votre NAS, configurer votre routeur internet pour ouvrir les services, configurer votre NAS, mettre à jour régulièrement – en sachant que les spams représentent environ 93 % des emails reçus sur nos serveurs professionnels – et, cerise sur le gâteau, se mettre en capacité d’expédier les emails, ce qui dans le monde actuel du spam généralisé demande pas mal de travail (enregistrements DNS SPF, configuration de reverse DNS, voire signature DKIM / DomainKeys)

L’option auto-hébergement me semble très complexe pour un particulier par rapport au gain, mais les plus motivés pourront y passer une fois qu’ils auront assimilé le passage au cloud de stockage privé.

Réseau social

Vous connaissez la mélodie maintenant : gratuit payé par l’exploitation de vos données principalement pour les publicités mais pas que, emplacement du stockage physique non contrôlé. On pourrait s’attendre à ce que l’infrastructure nécessaire à la mise en place d’un réseau social soit hors de portée d’un modèle réellement gratuit ou à très bas coût. Tout d’abord, pour un partage à son réseau personnel, le volume de données est tout à fait raisonnable, et cela fait très longtemps que des particuliers lancent des forums avec plusieurs centaines voire milliers d’utilisateurs à très bas coût.

Mais encore mieux, un outil a su utiliser à bon escient la nature décentralisée d’internet pour construire un réseau social à échelle mondial de façon distribuée : diaspora. Le principe est simple comme internet : localement, de petits serveurs appelés pod regroupent des mini réseaux, et l’infrastructure logicielle les agrègent pour créer un réseau mondial, ce qui permet de fournir gratuitement et sans publicités un réseau social global.

Conclusion

J’entends beaucoup de lamentations sur la « googlisation » d’internet, une recentralisation du réseau autour de gros services – Google, Youtube, Netflix, Facebook, etc. – la plupart étant financé par une concentration des données personnelles dangereuse pour de nombreuses raisons – sécurité, confidentialité, surveillance privée ou étatique – mais j’entends peu parler de solutions alors qu’elles existent, comme cet article le prouve – et je citerais également l’initiative de Framasoft agrégeant de nombreux services ouverts et décentralisés. Alors, en 2017, on reprend en mains internet ?

Du bon sens dans la prestation de services informatique

Le 28 juin 2016, dans un article intitulé « After Brexit, the people’s spring is inevitable » paru dans le New York Times, Marine Le Pen déclarait à propos des attitudes possibles de l’UE face à la Grande-Bretagne qu’elle pourrait soit la laisser partir sans heurts, soit se comporter en mauvais perdant en lui pourrissant la vie, concluant « Common sense points towards the former » (« Le sens commun incline vers la première ») mais que l’Europe ferait sans doute l’inverse, puisque dans son esprit elle est totalement dépourvue de sens commun. J’ai été assez étonné de retrouver ici l’expression anglaise « common sense », et je suis allée chercher la version française de l’article, et bingo, Marine Le Pen avait employé l’expression « bon sens », une des préférés de nos politiques, dont l’apparition dans le discours est proportionnelle à l’inclination populiste. Qui en effet pourrait s’opposer à ce qui est de bon sens, si ce n’est un sorbonnard coupeur de cheveux en quatre ou un technocrate de Bruxelles borné ? Comme je vais l’exposer ici, il se trouve qu’en général ce sont des gens de très bonne compagnie qui s’opposent au bon sens, et qu’il est rarement une bonne boussole pour qui cherche le vrai, ou son pis aller atteignable, le moins faux.

Le bon sens en philosophie

Commençons par revenir à la traduction anglaise faite par le New York Times, qui à mon avis trahit la pensée de Marine Le Pen en lui faisant parler de sens commun plutôt que de bon sens. L’histoire du sens commun en philosophie commence avec Aristote qui le définit comme la capacité commune aux êtres vivants à prendre connaissance sensoriellement de leur environnement ; dans une étape supplémentaire, uniquement accessible aux être humains, nous nous construisons une vision du monde qui nous devient propre, mais la perception initiale nous serait commune et serait l’apanage d’un sens interne au corps, sans capteur externe comme l’œil ou le nez, comme une sorte de boussole intérieure qui nous pointerait dans la bonne direction.

Chez les romains, l’expression prend un sens légèrement différent, qui fait écho au fonctionnement de l’impérialisme romain : il devient l’ensemble des éléments sur lesquels une société s’entend de façon à rendre la vie commune possible. On se rapproche d’une définition plus intellectuelle du sens commun, qui ressemble à ce qu’on appelle souvent aujourd’hui en français « vivre ensemble ».

Bien plus tard, Descartes viendra démonter ce sens interne qu’aurait les êtres vivants, en mettant d’un côté les sens physiques, et de l’autre la raison dont le siège est pour lui le cerveau – c’était le cœur pour Aristote. Le sens commun grec est pour Descartes une illusion, et il en arrive à le redéfinir comme la capacité supposément innée à différencier le bien du mal sans réfléchir, capacité qu’il bat en brèche en lui opposant le doute méthodique, c’est-à-dire la méthode scientifique, émergente à l’époque, qu’il est parmi les premiers à théoriser.

Par la suite, la peur que la rationalité cartésienne soit impossible à atteindre voire inhumaine a fait ressortir des cartons la version romaine par Giambattista Vico, qu’on qualifiera de sens commun humaniste ; Vico le voit comme les savoirs et croyances partagés à l’intérieur d’un groupe humain quelconque pour permettre à ce groupe de perdurer avec le minimum de conflit interne. Le point important ici est que ce sens commun est relatif au groupe : il n’y a pas comme dans la version grecque de sens commun universel, mais une myriade de compromis plus ou moins explicites, variant dans l’espace et dans le temps. Vico a par la suite poussé sa vision au paroxysme en tentant de définir une nouvelle version de la loi naturelle qui s’appuierait sur un sens commun de l’humanité toute entière ; force est de constater que la méthode scientifique du doute méthodique s’est imposée sans trop de difficultés sur cette idée.

Enfin, Kant écrivit que le seul sens commun était le sens esthétique, c’est-à-dire notre capacité à juger, qui n’est pas commune dans le sens où nous jugerions tous de la même façon, mais dans le sens où nous sommes tous pourvus également de cette faculté à juger, sans qu’on puisse déterminer si un jugement esthétique est plus valide qu’un autre. Comme chez Descartes, ce sens commun s’oppose à la raison.

Finalement, on constate qu’en philosophie, après presque trois millénaires de réflexion, l’idée qu’un sens commun à tous les êtres puisse s’imposer sur la raison a fait long feu. L’histoire des sciences vient à l’appui de cette constatation.

Le sens commun en mathématiques

Les éléments de géométrie d’Euclide est le livre ayant le plus d’éditions après la Bible ; il serait un euphémisme de dire que c’est l’ouvrage scientifique le plus influent de tous les temps. Et pourtant, une de ses clés de voûte, l’axiome des parallèles, que toute personne ayant appris un peu de géométrie de nos jours tient pour tellement évident qu’il ne lui viendrait pas à l’idée de le remettre en cause – et je dis un peu à dessein, ceux qui ont étudié beaucoup de géométrie savent qu’il n’est ni nécessaire ni toujours souhaitable – cet axiome vient à l’encontre d’un des sens communs philosophiques. Il énonce que par un point donné il ne passe qu’une seule parallèle à une droite donnée ; il est équivalent à ce que deux droites parallèles ne se coupent pas, et tout cela fonctionne très bien dans le plan.

Or notre terrain de jeu commun est une sphère, la Terre, et pas un plan ; prenons deux méridiens : dans la géométrie adaptée à une sphère, ce sont deux droites parallèles, or ils ont deux points d’intersection, le pôle nord et le pôle sud physiques. Certaines théories physiques supposent même que l’univers lui-même n’est pas plan au sens d’Euclide. Localement, vous ne verrez pas la différence, mais mesurez des distances terrestres suffisamment grandes et ne pas prendre en compte la courbure de notre planète amène à des erreurs énormes.

L’axiome des parallèles, bien qu’il fasse partie du sens commun de toutes les sociétés des pays développés au sens où tout individu lambda pris dans la rue le considérera comme acquis, s’oppose au sens commun d’une humanité en général qui vit sur une sphère, donc dans une structure où cet axiome amène à des raisonnements faux.

Le sens commun en physique

La physique aristotélicienne – comme par hasard – énonce que les objets les plus lourds tombent plus rapidement. Et cela semble effectivement a priori évident : lâchez une boule de pétanque et une feuille de papier, la boule de pétanque touchera le sol la première, c’est imparable. Marine Le Pen dirait que c’est du bon sens.

Mais maintenant, prenez deux feuilles de papier identiques, et froissez-en une. Si vous lâchez les deux, vous constaterez que bien que leur masse soient égales, celle qui est froissée tombera bien plus vite que l’autre. Pire : si vous en coupez une en eux, et que vous la froissez, elle tombera également plus vite que l’autre, alors que cette fois-ci, elle est moins massive. Ces deux petites expériences triviales prouvent qu’il n’y a pas que la masse dans l’affaire ; actuellement, on considère que deux objets tombent à la même vitesse quelle que soit leur masse ; ce sont d’autres forces qui provoquent les écarts, les frottements, le vent, etc. Une vidéo célèbre montre un marteau et une plume tomber à la même vitesse sur la lune.

Une expérience est d’ailleurs en cours en orbite autour de la Terre pour vérifier à la quinzième décimale cette loi appelée « principe d’équivalence » ; si l’expérience venait à infirmer la loi, cela remettrait en cause une partie de la théorie de la relativité générale, qui est le cadre actuel de la gravitation, rien que ça. Pourquoi une telle expérience ? Parce que la science n’est jamais que la recherche de l’erreur, et que de correction d’erreur en correction d’erreur, on se rapproche toujours un peu plus de la vérité.

Dans la prestation de services informatiques

J’avoue que cet article est plus né de mon aversion pour le bon sens que d’une expérience directement liée à l’informatique, mais le bon sens sévit également dans notre relation à nos clients. Il est très fréquent pendant la phase de recette d’un logiciel d’entendre le client nous reprocher quelque chose qui ne se trouvait pas dans les spécifications fonctionnelles, et il proférera souvent que « c’est pourtant évident ! », justifiant par là du fait qu’on ne l’avait pas écrit pendant la conception.

Au cours de mes diverses incursions dans des domaines professionnels variés – de la garde d’enfants en crèche à la vente de tracteur en passant par le calcul financier, la reconnaissance de la parole ou l’analyse de dossiers administratifs – si il y a bien une chose que j’ai apprise, c’est qu’il n’existe aucune évidence. Par exemple, il est évident pour la plupart des gens, cela fait partie du sens commun, qu’une fois qu’un devis ou un bon de commande est validé, il ne doit plus être modifié ; il se trouve que pour la vente de tissu à la demande, il est inscrit dans le code du commerce qu’étant donné que les machines ne sont pas capables de s’arrêter pile poil sur le métrage attendu, le client recevra et paiera exactement la longueur à laquelle la machine s’est arrêtée : vous commandez 100 mètres, on peut vous en livrer 97 ou 102, et c’est normal. Le devis est alors modifié rétroactivement pour coller au travail effectué.

Dans un autre ordre d’idées, lors d’une réunion client récente, nous étudiions une entité possédant trois propriétés définissant la capacité d’une structure ; trois profils d’intervenants du client étaient présents ; pour le premier, le troisième chiffre ne servait à rien, pour le deuxième, le deuxième chiffre ne servait à rien, et pour le troisième, tous les chiffres étaient importants. L’évidence ne se brouille donc pas uniquement de par les spécificités du métier, mais également par l’angle de vue adopté, que l’on soit comme dans mon exemple des services centraux, de l’encadrement local ou du travail directement opérationnel. D’ailleurs, cet aspect de la problématique informatique, lié au fait que l’utilisateur fait partie du système d’informations, justifie le caractère indispensable des ateliers utilisateur et des suivis post mise en production. La conception se fait souvent dans les services centraux, loin du terrain, en particulier dans les grandes structures, et le développeur est souvent le plus éloigné des utilisateurs finaux, qu’il n’entend qu’à travers de multiples couches ajoutant chacune leur bruit au message initial.

Au bout du compte, le métier de l’informaticien est beaucoup plus de trouver un sens commun à tous les utilisateurs de l’application pour modéliser les données et les processus, puis de présenter ces données nécessairement communes, puisque centralisées dans le logiciel, de façon différente en fonction des profils, des connaissances et de la place de l’utilisateur – en résumé, de son bon sens personnel – que de programmer l’ordinateur lui-même qui ne reste qu’un outil au service de l’exécution automatisée de processus humains.

Pour une éthique de l’informaticien : l’utilisateur au centre du système d’informations

Bouygues Telecom, pour ses 20 ans, a lancé une campagne de publicité dont le slogan est « We love technology ». Cette accroche anglophone posée, le sous-texte est un chef d’oeuvre de littérature publicitaire : « De notre premier portable à nos derniers Snapchats, de notre premier coup d’œil à nos mails le matin, à nos derniers SMS envoyés, de nos premières vidéos à succès à nos dernières séries préférées en replay… Si la technologie a pris tant de place dans nos vies, c’est sans doute parce qu’on l’aime. Et comme chez Bouygues Telecom nous partageons cette passion avec vous, nous sommes heureux grâce à notre 4G, nos forfaits et nos Box, de la rendre accessible à tous. ». Passons sobrement sur l’énumération d’outils offerts via les offres Bouygues Telecom de la première phrase et la promesse publicitaire de la dernière phrase – chez nous vous aurez les meilleurs technologies et pour pas cher, venez venez – pour nous concentrer sur le slogan et son explication.

Le rédacteur nous sauve de la crétinerie fondamentale de déclarer notre flamme à notre téléphone ou à notre modem par l’emploi de la paradoxale locution « sans doute », dont le rôle est justement d’en introduire un, de doute. Mais le plus intéressant est à mon sens l’utilisation du terme anglais « technology » et en parallèle l’emploi du singulier pour le mot français « technologie » ; dans la langue française, celui-ci a trois acceptions :

  • la science et l’étude des techniques et des outils en général
  • l’ensemble des termes propres à un art qui n’est plus très usité
  • un champ technique particulier : la technologie médicale, la technologie du moteur à explosion, etc. On parlera alors plutôt des technologies

En anglais, on n’en retrouve que deux : d’une part, le premier sens français, et d’autre part l’ensemble de toutes les techniques d’une culture ou d’un peuple. Comme Bouygues Telecom ne parle pas d’un amour immodéré de ses clients pour la science étudiant les techniques, et qu’aucun champ particulier n’est précisé, le singulier français « technologie » doit être compris comme un anglicisme signifiant les techniques et outils rassemblés en un tout. Une question vient alors immédiatement à l’esprit : en dehors de l’idée aberrante qu’on puisse aimer un ensemble aussi gigantesque et disparate, cela a-t-il un sens de considérer l’ensemble des techniques comme un tout cohérent ? Entre en scène le sociologue français Jacques Ellul.

L’avènement de la Technique

Dans « Le système technicien », en 1977, il décrivit l’émergence de la Technique – terme qui a dans son oeuvre le même sens que le « technology » anglais – comme l’ensemble des techniques précédemment séparées mais désormais unies par l’informatique. C’est une entité sans but particulier mais en perpétuel accroissement, qui structure nos modes de pensée et nos façons de vivre, mais qui ne possède ni morale, ni éthique propres. L’intuition géniale de ce grand penseur, étrangement méconnu en France, est d’avoir vu que l’informatique jouerait le rôle de cerveau organisant le travail des divers champs technologiques qui eux existent depuis qu’homo sapiens s’est différencié mais sont toujours restés dépendants d’une orchestration humaine. Les exemples récents de projets d’usines entièrement automatisées, sans aucune intervention humaine, combinant machines et intelligences artificielles faibles, prouvent qu’une version concrète de sa vision abstraite et sociologique d’un système technicien autonome se rapproche :

Je ne partage pas toutes les idées de Jacques Ellul – en particulier, il compare la Technique à un cancer de la société de par sa propension à croître apparemment sans limites et à phagocyter son hôte, mais au contraire des cellules cancéreuses qui utilisent toute leur énergie à la multiplication et ne remplissent plus leurs tâches habituelles, les éléments individuels constituant la Technique rendent globalement les services qu’on attend d’eux – mais sa réflexion me semble centrale dans la constitution d’une éthique pour le concepteur de système que je suis, sujet qui n’a jamais été abordé pendant ma formation, et qui me parait totalement absent des préoccupations quotidiennes des ingénieurs.

Ethique et conception des systèmes informatiques

La réflexion éthique sur le sens de la technique a un intérêt philosophique et sociologique évident pour l’ingénieur, dont on se demande bien pourquoi elle serait la seule profession qui ne s’interrogerait pas sur sa place et son rôle dans la société. Dans cet article, je vais tenter de démontrer qu’elle a également un intérêt plus pragmatique dans la pratique quotidienne du métier.

De fait, l’informatique est souvent définie et comprise plus comme un ensemble de technologies que comme une science, et cela a des conséquences évidentes sur la formation des informaticiens : celle-ci est la plupart du temps très technique, se concentrant sur les paradigmes de programmation et d’architecture – programmation fonctionnelle, objet, impérative ou déclarative, déploiement proche du métal ou en machine virtuelle, architecture locale ou distribuée, serveur physique ou machine virtuelle, sans même parler des langages eux-mêmes – et oubliant les aspects conceptuels du métier – ce qu’est une information, pourquoi et comment on la manipule et on la présente, et le sens qu’elle a pour les utilisateurs.

On retrouve évidemment ensuite cette tendance technoïde en entreprise, et dans l’environnement actuel où quasiment tous les postes de travail sont équipés d’ordinateurs – à part celui des chefs pour accentuer leur différence – et où tous les processus de l’entreprise font intervenir l’informatique comme un élément central, les techniciens informatiques se voient conférer un sentiment de toute puissance dont le costume IBM, le consultant SAP et le créateur de startup maître des algorithmes furent tour à tour des symboles. Bien sûr, les programmeurs ne sont pas des robots codeurs, ils ont un avis sur les interfaces utilisateur et la meilleure façon de modéliser les processus, étant eux-mêmes utilisateurs ; mais si vous faites vos applications suivant vos critères de technicien spécialiste, et que vous cédez à la tendance facile de considérer que les utilisateurs doivent s’adapter à l’outil informatique et pas l’inverse ou qu’un logiciel pas franchement adapté soit toujours meilleur que pas de logiciel du tout, il y a de bonnes chances pour que vos créations ne conviennent qu’à vous et vos collègues, qui constituez une portion assez faible du marché. La prise en compte des desiderata des utilisateurs et de leur façon d’exercer leur activité doit donc être une préoccupation constante des programmeurs.

WP_20160608_12_51_32_Pro
Mais puisque je te dis que SAP est incontournable pour ta PME artisanale !

Les préoccupations éthiques mises en avant par Jacques Ellul rejoignent cette réflexion : si nous experts techniques concevons les outils que nous créons comme devant s’imposer aux utilisateurs, voire même les transformer et les améliorer comme le promeuvent les transhumanistes – vous êtes les inadaptés, amis primates – plutôt que de les assister dans leurs tâches, son système technicien aveugle et amoral ne peut qu’advenir. Cette réflexion n’est bien entendu pas très originale ; les méthodes agiles qui se structurent depuis le début du siècle reconnaissent le rôle central de l’utilisateur, jusqu’à l’intégrer formellement dans l’équipe de développement. Cependant, un aspect du problème, au cœur de ma définition de la science informatique, me semble rester dans l’angle mort des méthodes accessibles aux programmeurs, bien qu’il soit étudié sous diverses formes par les chercheurs : la différence entre une donnée et une information, entre un chiffre brut et une donnée contextualisée.

Les frontières du système d’informations

De manière classique, on définit un programme comme des entrées, un algorithme, et des sorties, ce qui se traduit dans l’esprit des développeurs comme les entrées que je récupère de mon interface utilisateur, le traitement défini dans les spécifications, et les sorties que j’affiche dans mon interface utilisateur. En fonction des sensibilités aux questions d’ergonomie, ils travailleront plus ou moins celle de leur logiciel, mais rares sont ceux qui considéreront comme moi que l’interface utilisateur ne constitue pas la frontière du système d’informations, et c’est une source majeure d’échecs pour les projets informatiques.

En effet, quel que soit le soin apporté à l’interface utilisateur, la qualité de l’enchaînement des écrans et des contrôles de saisie, la précision et la pertinence des messages d’alerte et d’erreurs, si la modélisation du processus n’a pas pris en compte la façon dont est obtenue la donnée par l’utilisateur du système avant d’être saisie et son adéquation avec ce qui est attendu, ou encore la façon dont sera interprétée et utilisée dans le monde réel une information affichée, les risques d’erreur sont multiples et aboutissent à rendre le système inopérant voire délétère :

  • en écriture, l’utilisateur n’a pas l’information souhaitée et l’invente ou la déduit selon des règles personnelles inconnues du concepteur
  • pire, il croit de bonne foi l’avoir, mais se trompe sur ce qui est demandé
  • la précision de la donnée n’est pas adéquate, que ce soit insuffisant ou superfétatoire ; ce risque est particulièrement pregnant pour le calcul scientifique dont les optimisations dépendent lourdement de la précision attendue
  • en lecture, les mêmes écueils existent pour la réutilisation d’une information affichée, que ce soit par une incompréhension de ce qu’elle signifie ou du fonctionnement de l’algorithme qui l’a générée

La leçon à tirer de ces réflexions est que les utilisateurs font partie intégrante du système d’information ; il est donc fondamental de s’enquérir de leur façon de concevoir leur métier, les processus auxquels ils participent et les tâches qu’ils accomplissent, mais également connaitre et partager le vocabulaire qu’ils emploient pour désigner les entités appelées à être manipulées par le système. Une fois la mise en production effectuée, il faut contrôler régulièrement la façon dont le logiciel est employé, y compris en dehors de toute phase d’évolution, et pas uniquement en analysant des statistiques d’utilisation, mais également en regardant les utilisateurs s’en servir. Je me souviens au début de ma carrière d’un client allant chercher dans le code source HTML de la page une information qui était accessible en un clic à l’aide d’une fonctionnalité documentée !

Conclusion

Collègues développeurs, architectes et consultants, si la place centrale qu’occupe l’informatique dans le monde d’aujourd’hui ne suffit pas à vous convaincre de l’importance d’une réflexion sur l’éthique de votre profession et l’impact social voire anthropologique de votre industrie, j’espère vous avoir convaincu que vous en préoccuper vous permettra d’être plus efficace et apprécié de vos clients sur le long terme, et gardez à l’esprit qu’aussi imparfaits et incontrôlables qu’ils soient, en attendant l’avènement de Skynet ou d’Omnius, les utilisateurs humains sont des rouages indispensables de vos systèmes d’information que vous devez placer en tête de vos préoccupations lors de la conception, du développement et de la maintenance de vos logiciels.

Cryptographie, algorithmes et secrets

Dans un climat général de tentative des Etats de mise au pas des GAFA qui se croiraient au dessus des lois, l’affaire FBI contre Apple a des retentissements jusqu’en France où Yann Galut, Eric Ciotti et Philippe Goujon ont déposé des amendements à la loi de réforme pénale en prévision d’un cas similaire en France ; en l’état actuel de la discussion à l’Assemblée, c’est celui de M. Goujon qui a été adopté, et il pose un très gros problème sans répondre exactement au cas américain, ce que je vais exposer ici.

La cryptographie pour les nuls

Les systèmes de cryptographie non triviaux sont tous composés de deux éléments : d’une part, un algorithme de transformation des données avec un pendant cryptage et un pendant décryptage, et d’autre part un secret utilisé pendant l’exécution de l’algorithme qui est partagé entre les parties concernées par la communication.

Par exemple, considérons l’algorithme suivant : pour chaque lettre d’un message, à la place de la lettre, on met trois chiffres qui correspondent respectivement à un numéro de page dans un livre, un numéro de ligne dans la page, et un numéro de caractère dans la ligne. Pour crypter, lettre à lettre, on choisit une page au hasard, puis une ligne au hasard, et on y cherche la lettre à transformer, puis on écrit le triplet déterminé. Pour décrypter, triplet par triplet, on ouvre le livre à la page du premier chiffre, on se place à la ligne du deuxième chiffre, puis au caractère du troisième chiffre, et on en déduit la lettre.

Si je veux envoyer un message crypté avec cet algorithme à un tiers, je m’entends avec lui sur un secret partagé, qui sera par exemple l’édition J’ai lu de 2003 de Lumière des jours enfuis d’Arthur C. Clarke – excellent livre qui sur fond d’utilisation des trous de ver nous parle en filigrane entre autres choses de la société des réseaux sociaux publics où plus rien n’est privé. Sans savoir quel est le livre employé, il est très difficile de décrypter le message, surtout si on utilise des triplets différents à chaque fois qu’on retrouve la même lettre, et en particulier, le créateur de l’algorithme n’a pas plus de moyen de décrypter le message que n’importe qui d’autre, il peut juste fournir le principe de cryptage.

L’amendement Goujon

L’amendement du député Philippe Goujon est ainsi rédigé : « Le fait, pour un organisme privé, de refuser de communiquer à l’autorité judiciaire requérante enquêtant sur des crimes ou délits terroristes définis au chapitre Ier du titre II du livre IV du code pénal des données protégées par un moyen de cryptologie dont il est le constructeur, est puni de cinq ans d’emprisonnement et 350 000 € d’amende. » Or, comme on l’a vu, le constructeur d’un moyen de cryptologie connait l’algorithme mais n’est pas sensé connaitre le secret qui est l’affaire du propriétaire des données et des personnes à qui il veut les communiquer ; pour complaire à la loi ainsi rédigée, le constructeur doit inclure d’une façon ou d’une autre dans son algorithme une porte dérobée lui permettant d’accéder au secret. Et si l’histoire de l’informatique prouve quelque chose, c’est que si une porte dérobée existe, elle sera exploitée par des personnes malveillantes tôt ou tard. De fait, l’amendement Goujon rend totalement inopérante la cryptographie.

La loi sur le renseignement

Comme je l’ai écrit dans un billet précédent, la loi sur le renseignement ajoutait une obligation de décryptabilité aux fournisseurs de communication électronique, dont les hébergeurs font partie. Les deux articles semblent similaires, puisque le législateur demande dans les deux cas un moyen d’accès à des données cryptées, mais les différences sont de taille :

  • dans le cas de la loi renseignement, l’autorité administrative demande le secret, que par définition l’hébergeur connait et est fondé à connaitre puisqu’il fait partie de la communication ; le risque est qu’une fois le secret connu des autorités, toute donnée cryptée par ce secret, qu’elle fasse ou non l’objet d’une problématique terroriste, peut leur être connue – typiquement, une fois que vous avez la clé privée d’un serveur https et via les fameuses boites noires, toutes les communications effectuées vers ce serveur https, elles peuvent toutes être décryptées
  • dans le cas de l’amendement Goujon, le législateur demande les données elles-mêmes non plus à une des parties de la communication, mais à un fournisseur de technologie, ce qui implique comme on l’a vu une forme de porte dérobée, qui peut rendre visible à un hacker toute donnée cryptée à l’aide de la technologie, ce qui est bien plus grave à deux points de vue : d’une part, malgré toutes mes préventions contre un Etat trop puissant, je préfère que mes données soient potentiellement accessibles à une autorité administrative constituée et un tant soit peu contrôlable plutôt qu’à un hacker anonyme, et d’autre part, toute donnée cryptée avec l’algorithme est potentiellement lisible, pas uniquement un serveur utilisant une clé privée https sur un temps limité !

Le cas San Bernardino

L’affaire en cours entre le FBI et Apple est différente de l’amendement Goujon et de la loi renseignement, car dans le cas des données stockées cryptées dans un smartphone, le secret est physiquement présent dans le téléphone. Le FBI ne demande à Apple ni les données, ni le secret, mais un outil pour l’aider à obtenir le secret.

En très résumé, le cryptage de l’iPhone fonctionne de la façon suivante : le secret est composé d’une donnée physiquement présente dans le processeur et d’un mot de passe créé par l’utilisateur. Si on sort les données cryptées du téléphone, le processeur n’étant pas là, une partie de la clé est manquante ; si on change le mot de passe utilisateur, erreur que le FBI a faite, une partie de la clé est manquante. Le FBI se retrouve donc obligé de faire une attaque brute force, c’est-à-dire d’essayer tous les mots de passe un par un comme des bourrins. Or le micrologiciel de l’iPhone empêche de telles attaques par deux moyens : on peut activer sur le téléphone une suppression automatique des données au bout de dix erreurs de mot de passe – et le FBI n’a aucun moyen de savoir si la fonctionnalité est activée ou pas sur le téléphone du terroriste, et plus on se trompe de mot de passe, plus le téléphone met longtemps à répondre aux demandes d’authentification. Cerise sur le gâteau : pour qu’un micrologiciel soit accepté par le téléphone, il faut qu’il soit signé par la clé privée d’Apple, il est donc impossible au FBI d’intégrer une version à eux sans intervention d’Apple.

Pour accéder aux données, le FBI a donc besoin d’un des éléments suivants :

  • une version créée par Apple du micrologiciel qui lève les restrictions empêchant une attaque en force brute ;
  • la clé privée qu’Apple utilise pour signer ses micrologiciels pour en intégrer une version à eux dans le téléphone

La deuxième option est inimaginable car elle conduit immédiatement à ce que le FBI puisse faire ce qu’il veut de tout téléphone Apple ; le FBI ne le demande d’ailleurs pas. La première option fait débat : le FBI assure qu’Apple pourrait créer une version qui ne fonctionnerait que sur ce téléphone précis, et de son côté Apple affirme qu’une fois le logiciel créé, il n’y a aucun moyen d’empêcher les personnes mettant la main dessus de l’utiliser sur tous les iPhone, ce qui ouvrirait une porte dérobée sur des centaines de millions de terminaux. Toujours est-il que même possédant ce logiciel, le FBI mettrait en moyenne 3 ans à forcer le mot de passe par force brute, et qu’il s’est de lui-même privé d’un moyen trivial d’y accéder facilement en changeant le mot de passe existant ; de plus, à l’aide des relevés téléphoniques, des informations de son ordinateur et de son fournisseur d’accès à internet, le FBI connait déjà les personnes avec lesquelles il communiquait et en grande partie ce qu’il a pu leur dire.

On peut alors se demander légitimement pourquoi on ouvrirait un précédent aussi majeur, et pourquoi on prendrait un tel risque pour la sécurité d’un nombre gigantesque de personnes, tout ça pour obtenir au mieux dans 3 ans quelques informations complémentaires, et au pire dupliquer des données que l’on a déjà.

Conclusion

Dès que j’ai lu l’amendement Goujon, j’ai contacté personnellement le député pour lui expliquer les problèmes qu’il posait ; son attachée parlementaire m’a répondu que lors de la discussion sur celui-ci, le député avait dit que le gouvernement pourrait améliorer les aspects techniques mais qu’il constituait une base de discussion qui rassemblait gauche et droite autour de la nécessité qu’elles ressentent toutes les deux de faire collaborer les sociétés technologiques avec les autorités.

Au cours de mes aventures dans la fabrique de la loi – loi renseignement, loi pour une république numérique, cet amendement et enfin ce cas amusant sur le sujet du principe pollueur – payeur où la secrétaire d’Etat s’est retrouvée à présenter un article qu’elle ne connaissait pas et qui vidait la loi de sa substance initiale, j’ai rencontré un motif récurrent qui commence à m’inquiéter pour l’état de notre démocratie.

Les projets de loi sont majoritairement rédigés dans les cabinets ministériels par des conseillers techniques qui ont une légitimité sur leur sujet de prédilection mais aucune légitimité démocratique, ne sont pas comptables devant les citoyens et sont la cible de tous les lobbys imaginables, associations, grandes entreprises, ONG, etc. Ils sont ensuite présentés par des ministres, qui eux en répondent directement au citoyen, ce qui leur donne une forme de légitimité, quoi qu’on pense de la démocratie représentative, mais qui ne comprennent pas toujours les enjeux techniques et s’appuient pour cela sur leurs équipes de conseillers. A l’Assemblée Nationale, ils passent ensuite dans les mains de députés ayant également reçu un mandat du peuple, mais qui ne peuvent être spécialistes de tous les sujets, et qui manifestement n’ont pas les ressources en conseil technique pour bien appréhender tous les enjeux ou alors ne les sollicitent pas toujours – l’exemple de cet amendement cryptographie ne fait que renforcer l’impression ressentie sur l’amendement système d’exploitation souverain. Mis au pied du mur, ils semblent s’en remettre à nouveau aux conseillers techniques du gouvernement, et on revient à la case départ. Même l’expérimentation intéressante de consultation citoyenne de loi pour une République numérique n’a pas eu l’air de faire dérailler le train-train législatif puisque seuls des articles mineurs ont été repris de celle-ci, et les articles des lobbys ont remplacé les propositions citoyennes tout en douceur et dans le feutré de la salle des 4 colonnes.

Sommes-nous alors condamnés à errer d’articles de lois mal écrits par des députés non spécialistes et sans aide technique en articles rédigés dans des cabinets fermés au public et sans aucune transparence démocratique ?

Le projet de loi pour une République Numérique adopté à l’Assemblée Nationale

Après avoir fait l’objet d’une consultation que j’ai commentée ici, le projet de loi pour une République numérique a été présenté à l’Assemblée Nationale en décembre avant d’être adopté le 26 janvier 2016 après des débats qualifiés d’enrichissants par la Secrétaire d’Etat. Bien que son parcours législatif ne soit pas encore terminé, la lecture de cette version votée par les députés donne un premier aperçu instructif de la prise en compte par nos représentants de la consultation citoyenne ainsi qu’une idée des droits et devoirs à venir pour les citoyens et les acteurs du numérique.

De la neutralité du net

L’article 11 de la consultation proposait une définition claire de la neutralité du net ; cependant, il était suspendu au règlement européen à venir, et dans sa mouture finale (article 19 de la nouvelle loi),  il ne fait plus que renvoyer au dit règlement qui laisse une porte ouverte à la discrimination de trafic.

L’article 3 commence plutôt bien avec une définition assez précise, mais ça commence vite à zigzaguer avec la possibilité de « mettre en oeuvre des mesures raisonnables de gestion du trafic » qui doivent être « transparentes, non discriminatoires et proportionnées » et non « fondées sur des considérations commerciales ». En clair, cela veut dire que Netflix ne peut pas payer pour que Orange l’avantage par rapport à Youtube ou CanalPlay, mais les réjouissances sont de courte durée car on part carrément en dérapage incontrôlé avec deux des exceptions prévues :

  • se conformer à législation européenne ou nationale – quiconque pensera ici à hadopi sera mal intentionné
  • préserver l’intégrité et la sûreté du réseau, des services fournis et des équipements terminaux – quand vous dites « service fourni », ça inclut les plateformes de VOD par exemple ?

Et on atteint le comble du sublime poussé au paroxysme de l’intemporel avec l’alinéa 5 qui tente un grand écart facial en autorisant les FAI à mettre en oeuvre des services optimisés mais seulement si il reste un peu de débit.

Je crois que les associations promouvant la neutralité du net n’ont pas fini de courir après les FAI sur l’interprétation de cet article abscons et incohérent – volontairement, j’en ai peur ; en tout état de cause, une nouvelle occasion de sacraliser la neutralité du net a été manquée.

Logiciels, données, contenus et algorithmes libres ?

Sans surprises, la consultation avait vu fleurir des obligations tous azymuths à utiliser des logiciels libres – des dix articles les plus votés par les internautes, quatre y étaient directement liés ; n’en reste qu’un article, le 9 ter, limitant l’action de l’Etat à la promotion de ceux-ci, et une petite avancée définissant à l’article 1 bis le code source comme un élément à communiquer au public par les administrations. De toute évidence, on atteint ici les limites de l’exercice de la consultation publique, les lobbies constitués (Afdel, Fevad, SFIB et Syntec Numérique) qui ont travaillé directement les députés à l’ancienne ayant gagné haut la main face aux zélateurs du logiciel libre.

L’Open Data a subi un bien meilleur sort : les administrations publiques sont obligées de mettre à disposition de qui le souhaite, particulier ou entreprise, pour des usages privés ou commerciaux, les données qu’elles collectent dans un « format ouvert et aisément réutilisable, c’est-à-dire lisible par une machine », locution qu’on retrouve huit fois dans la loi ; les sanctions sont cependant bien maigres, une simple inscription sur un registre public étant prévu. Pas sûr que ce name and shame fasse peur à l’Etat français, régulièrement condamné pour le non respect des règlements européens et de certaines conventions internationales.

Les contenus scientifiques créés à partir de fonds publics pourront – si leur auteur le souhaite – tomber dans le domaine public rapidement même si ils sont publiés comme il se doit dans des revues scientifiques payantes, ce qui ne peut être que positif pour la diffusion du savoir.

Enfin, les algorithmes appliqués par les administrations publiques aux particuliers devront être consultables ; l’intention est louable, nul n’étant censé ignorer la loi, cependant la liste des exemptions douchera tout espoir de voir contrebalancée la loi renseignement et ses algorithmes implantés chez les FAI.

Au final, le numérique et la liberté et l’ouverture qui sous-tendent son développement depuis toujours restent manifestement une préoccupation de seconde zone pour l’Etat.

La surprise du chef

Ce n’est pas l’article ajouté par les députés le plus commenté – la fameuse réflexion sur l’opportunité d’un système d’exploitation souverain – qui inversera cette impression : il ne s’agit pas de nier que le contrôle des outils informatiques soit un défi pour toutes les organisations, l’Etat comme les entreprises, c’est une évidence, mais ce choix de créer un enième commissariat quand il existe déjà le Conseil National du Numérique et l’ANSSI (Agence nationale de la sécurité des systèmes d’information) qui font un excellent travail et de se fixer sur la question du système d’exploitation me rend pour le moins perplexe. La lecture de la discussion en commission, qui montre que l’article a failli passer à la trappe car sa rédactrice l’avait rédigé sous une forme inconstitutionnelle, et des discussions à l’Assemblée autour de l’idée de souveraineté numérique qui empile les clichés me renforcent dans cette opinion. Heureusement, la secrétaire d’Etat, dont la connaissance du dossier est une vraie bonne surprise, finit par recentrer le débat en assignant comme but au futur commissariat une réflexion globale sur la souveraineté numérique de la France ; si il est bien constitué comme il est probable de personnalités issues des instances existantes citées ci-dessus, on peut raisonnablement espérer qu’il n’en sortira pas l’usine à gaz que l’on pourrait redouter en écoutant les députés impliqués dans la discussion.

Le vrai faux nouveau droit

Une mesure a été étrangement assez décriée par les entreprises de technologie : le droit à la portabilité des données. D’un point de vue technique, il est pourtant déjà mis en oeuvre dans toutes les grands plateformes : les webmails donnent tous accès aux messages en POP3, les services de stockage en ligne vous empêchent rarement de récupérer vos fichiers, vous pouvez télécharger une copie de vos données Facebook dans le menu paramètres, etc. Le gain pour les consommateurs est donc assez faible voire nul et il ne contraint pas vraiment les GAFA qui en étaient la cible désignée, eux qui sont les principaux accusés pour leur position dominante qu’ils entretiendraient par des pratiques commerciales déloyales. Il y a sans doute du vrai dans cette accusation, mais le manque d’outils d’export exploitable des données n’en fait pas partie !

Conclusion

Cette loi est une belle occasion manquée, et ce à plus d’un titre : tout d’abord, le principe de la neutralité du net n’y est pas sanctuarisé ; de plus, les apports de la consultation publique repris dans le texte sont minimaux pour ne pas dire quasiment inexistants – l’article le mieux repris est celui sur l’e-sport qui n’a absolument aucun intérêt pour l’industrie du numérique, au sens où il se développe très bien tout seul ; enfin, les nouveaux droits pour les consommateurs sont très limités quand ils ne sont pas inutiles, et sont en particulier subordonnés aux lois sécuritaires votées antérieurement qui instituaient une défiance de fait de l’Etat envers le cyberespace.

La seule vraie satisfaction du processus aura été de découvrir une secrétaire d’Etat compétente et maîtrisant parfaitement son dossier ; gageons qu’elle pourra s’exprimer plus largement dans un futur proche où le numérique, véritable espace de liberté et de démocratie, sera réellement mis au centre des préoccupations de l’Etat.

Projet de loi pour une République numérique

Comme quoi tout arrive, à mille lieux du gloubiboulga technologico-sécuritaire de la loi sur le renseignement, le gouvernement vient de soumettre au peuple – je dis bien, au peuple – un texte qui tient la route sur le numérique, le projet de loi pour une République numérique, sous la forme d’une démarche collaborative inédite, chacun pouvant donner son avis sur les articles du gouvernement, voire en proposer d’autres. Mon chouchou est immédiatement devenu l’article sur la neutralité du net, proposé par le gouvernement, pour lequel je vous enjoins fortement à voter. Pour l’instant, les contributions citoyennes sont plutôt de bonne qualité, malgré quelques inévitables trolls, des hors sujets et une obsession pour le logiciel libre un peu lassante. L’ensemble manque sans doute de quelques sanctions, par exemple sur la neutralité du net ou les pratiques déloyales éventuelles des comparateurs et sites d’avis, mais ça me semble être un bon premier pas.

Un objet parcourt le texte, la donnée personnelle, et je trouve dommage que sa définition et ses modalités de détermination fonctionnelle et technique soient laissées aux textes existants – c’est-à-dire à la loi informatique et libertés. En effet, certaines données sont aujourd’hui considérées comme permettant de déterminer une personne physique, comme l’adresse IP, voire en dernière extrémité un cookie de tracking publicitaire, et cela mériterait discussion : combien de personnes physiques réelles se cachent derrière une adresse IP, en particulier dans un monde IPv4 où le NAT règne de facto en maître ? De plus, plusieurs articles définissent des droits de transfert ou de destruction des données personnelles, or ce n’est pas parce qu’il est possible théoriquement de retrouver le propriétaire d’une donnée que cela est facile, économiquement viable pour le service, voire possible comme dans le cas de la mort numérique. Il me semble qu’une méthodologie technique commune d’identification avec autorisation d’utilisation préalable devrait être envisagée, quitte à remettre les détails techniques à des décrets d’application, les technologies pouvant rapidement évoluer en ces matières. Si je trouve une rédaction appropriée, je proposerais peut-être un article en ce sens…

Etat de l’internet en l’an 10 des réseaux sociaux (1) : les prémisses

De nombreuses réflexions que je me fais depuis plusieurs années sur internet, les contenus qui y sont publiés et les dispositifs permettant d’y accéder se sont cristallisées d’un seul coup dans mon esprit en une idée de série d’articles à la lecture de cette tribune d’Hossein Derakhshan, blogueur irano-canadien qui à sa sortie de prison en Iran a découvert un paysage de la diffusion de contenus sur internet nouvellement dominé par les réseaux sociaux. Je ne partage pas totalement le pessimisme de ce texte, mais il pose des questions extrêmement intéressantes sur l’évolution actuelle d’internet, auxquelles je vais tenter d’apporter des réponses solidement ancrées dans la technique mais à la portée universelle.

Pour ce premier article, je vais me pencher sur les racines techniques d’internet qui ont défini son identité et assuré son succès.

Internet, le réseau des réseaux

Les premiers réseaux informatiques liant des ordinateurs entre eux datent de la fin des années 50, et reliaient des machines physiquement proches et en tout état de cause, la communication se passait de façon homogène, c’est-à-dire que d’une manière logique, l’information transmise ne traversait qu’une seule barrière, la limite qui sépare un ordinateur du medium physique la transportant jusqu’à l’autre ordinateur.

Réseau simple

Les années 60 virent le développement des réseaux locaux, et ce qui est considéré comme le premier réseau interconnecté, ARPANET, est né en 1969. Il fonctionnait de la façon suivante : des machines locales étaient toutes reliées à un ancêtre de routeur appelé IMP via une liaison série maison, et ces IMP discutaient entre eux en utilisant des liaisons téléphoniques dédiées – il est amusant de noter que la première RFC (Requests For Comments, forme de documents de spécifications des éléments techniques d’internet) décrit le fonctionnement des IMP. Les deux points révolutionnaires de cette approche sont la notion de commutation de paquets, et la capacité à traverser plusieurs barrières logiques avec des media physiques potentiellement différents pour transporter les données offerte par le routeur.

Jusqu’à l’invention de la commutation de paquets, une ligne de communication était dédiée à une conversation unique, comme avec le téléphone ; chaque paquet transporte l’information de la source et de la cible, de façon à ce que tous ceux qui empruntent la ligne de communication sachent si l’information leur est destinée.

Le routeur, quant à lui, est là pour gérer le trafic allant et venant vers les réseaux distants ; c’est un traducteur, connaissant à la fois la langue et les personnalités locales, ainsi que l’espéranto commun et les communautés distantes.

Le schéma précédent devient :

Réseau routé

 

Une fois ce modèle mis en oeuvre, petit à petit, étape par étape, en améliorant les protocoles de communication, en étendant le nombre de routeurs traversables pour lier deux machines, s’est créé au début des années 90 un réseau mondial, auquel la plupart des réseaux locaux sont connectés.

Internet est donc à sa source même une technologie reliant des ordinateurs entre eux, sur la base de langages techniques appelés protocoles, sans donner d’importance particulière aux nœuds, si ce n’est aux routeurs qui ont comme rôle spécifique d’assurer des ponts entre des réseaux hétérogènes.

L’hypertexte, réseau des contenus

Tout cela est bel et bon, mais comme les ordinateurs ne sont que des machines sans intelligence, il faut bien que la communication entre les machines serve à convoyer des informations intéressant les êtres humains. Un service auquel on pense immédiatement est le partage de fichiers distants où un serveur met à disposition une liste de fichiers accessibles ; le protocole FTP remplit ce besoin dès 1971 avec la RFC 114. On peut résumer l’architecture de partage de contenus ainsi créée par le schéma suivant :

ContenuCentralise

 

Ce qui frappe immédiatement dans cette organisation, c’est qu’elle ne correspond pas à l’organisation technique des machines ; autant le transfert de données bas niveau entre ordinateurs est par essence décentralisé et symétrique, autant dans ce mode, la consommation de contenus est centralisée et asymétrique. D’un point de vue fonctionnel, elle limite le partage d’informations ; d’un point de vue technique, elle pose de gros  problèmes de performance car certains nœuds du réseau, ceux qui servent le contenu, doivent être traités différemment des autres car ils seront plus sollicités. On peut noter cependant qu’elle correspond assez bien à l’idée juridique que les pays développés se font de la propriété intellectuelle.

En réponse à cette inadéquation fonctionnelle de la fourniture de contenus avec les possibilités techniques du réseau, a été créé au CERN par Tim Berners-Lee et Robert Cailliau le World Wide Web, un réseau des contenus, avec comme notion fondamentale le lien hypertexte qui permet à un document de faire référence à un autre document, parfois sur le même serveur de contenus, parfois sur un serveur à l’autre bout du monde. Comme vous avez pu le constater avec mes magnifiques schémas ci-dessus, faire un graphique parlant de ce réseau de contenus est au-delà de mes capacités ; je me contenterai donc de reprendre un exemple de représentation visible dans wikipedia :

This Wikipedia and Wikimedia Commons image is from the user Chris 73 and is freely available at http://commons.wikimedia.org/wiki/File:WorldWideWebAroundWikipedia.png under the creative commons cc-by-sa 3.0 license.

La question technique posée par la centralisation des serveurs de contenus n’est pas résolue par cette solution ; c’est le rôle des CDN (Content Delivery Network) qui dupliquent les contenus sur des machines au plus proche des consommateurs, et du peer to peer, qui distribuent la responsabilité de fournir le contenu à un maximum de nœuds dans le réseau, mais c’est une autre histoire.

Conclusion

S’appuyant sur ces deux technologies, Internet est prêt à envahir le monde : un réseau extensible d’ordinateurs et un réseau extensible de contenus, marchant la main dans la main, construits principalement par la communauté scientifique, dans un soucis de partage du savoir et de la puissance de calcul. Dans le second article, nous verrons ce que la première phase de l’ouverture au grand public en aura fait.