Les fake news ne sont pas le problème

Lors de ses voeux à la presse, le Président de la République a annoncé vouloir une loi sur les fake news. Dans cet article, je laisserai de côté deux aspects intéressants de la question : d’une part, l’aspect philosophique de savoir ce qu’est la vérité et si elle est atteignable, et d’autre part, l’aspect juridique de savoir qui doit décider de ce qu’on considère comme étant la vérité dans notre société démocratique. A la place, je vais vous raconter une histoire digne d’Hollywood, avec des espions russes, un savant fou, des hommes politiques à la ramasse et à la coiffure improbable, et un grand méchant dans l’ombre qui attend de rafler la mise.

Blame Russia

Si vous n’avez pas passé l’année 2017 dans une grotte coupée de la civilisation, vous devez avoir entendu parler des accusations d’intervention de la Russie dans la campagne électorale présidentielle américaine. Ces interventions auraient pris des formes variées :

Le tableau semble complet et digne d’un film d’espionnage ; la plupart des médias ne parle que de cette filière russe dans les manipulations de l’opinion pour l’élection de 2016. Et quasiment aucun ne parle des deux personnages centraux de l’histoire, le savant fou et le génie du mal, et c’est pourtant d’eux que vient le vrai danger.

M. Brexit

En 2008, Michal Kosinski, un jeune chercheur polonais, est accepté à l’université de Cambridge pour y travailler au psychometrics center. Pour ses recherches, il utilisa Facebook pour créer une base de données de profils psychologiques sur la base de tests de personnalité ; il pensait obtenir les profils de ses potes de fac et de quelques unes de leurs connaissances, et finalement, il se retrouva avec des millions de profils donnés volontairement par des inconnus.

Loin de s’arrêter à ce premier exploit, il décida d’aller plus loin : comparer les profils psychologiques obtenus par cette méthode classique du questionnaire avec les like des participants. Comme les tests avaient pris la forme d’une application Facebook à laquelle les utilisateurs avaient donné le droit d’accéder aux like, c’était techniquement facile et autorisé par la plateforme – ça l’est toujours, j’y reviendrai. Sur la base de cette comparaison, il réussit à construire un outil créant un profil psychologique sur la base des like, partages et commentaires Facebook. Avec une soixantaine de like, en 2012 – il y a une éternité à l’échelle des progrès actuels des intelligences artificielles – cet outil pouvait déterminer la couleur de la peau avec 95 % de taux de réussite, l’orientation sexuelle avec 88 % de taux de réussite et l’affiliation politique avec 85 % de taux de réussite. Avec 300 like, Kosinski disait en savoir plus sur une personne que son conjoint, et avec encore plus, découvrir des tendances personnelles dont même l’individu n’était pas conscient – là aussi, j’y reviendrai.

En 2014, Kosinski fut approché par un certain Aleksandr Kogan pour utiliser ses recherches, dont il finit par comprendre qu’il travaillait pour une société dont le but était de manipuler les élections. Il refusa, tout en sachant très bien que ses recherches étant publiques, ce n’était que reculer pour mieux sauter. Comme quoi on est vraiment dans un James Bond, Aleksandr Kogan a officiellement changé son nom en Aleksandr Spectre, et étant donné qu’il a un doctorat, cela fait de lui le Docteur Spectre.

Quand après le brexit, on entendit parler d’une société nommée Cambridge Analytica ayant aidé par du ciblage psychologique fin les pro-brexit, tous les initiés britanniques de ces questions ont immédiatement pensé au Docteur Kosinski, qui dut expliquer qu’il n’y était pour rien, et qu’il avait même refusé de tels projets.

Vous me voyez venir : l’équipe de campagne de Donald Trump a utilisé les services de Cambridge Analytica, pour un montant total de l’ordre du million de dollars. Le principe était simple : créer des profils électoraux et politiques d’utilisateurs de Facebook dans les swing states, ces états qui peuvent basculer dans le camp démocrate ou républicain, et qui en général font ou défont les élections présidentielles, puis cibler ces gens avec des messages personnalisés pour faire changer leur vote. Comment Donald Trump a t’il gagné l’élection présidentielle ? Par des victoires surprises dans les swing states. Hillary Clinton, qui a pourtant passé sa vie dans la sphère politique américaine, et qui était opposée à un novice, s’est fait blouser sur l’aspect le plus battu et rebattu de l’élection présidentielle américaine, et son équipe de vainqueurs avec elle.

Vous n’avez pas entendu parler de cette version de la manipulation électorale de 2016, où ce ne sont pas des méchants russes qui tripatouillent les cerveaux, mais de bons américains bien de chez eux, Donald Trump et sa mèche à leur tête, Facebook en support bienveillant ? C’est normal, presque aucun média n’en a parlé, et pourtant des plaintes ont été déposées, et l’enquête officielle s’y intéresse. C’est moins vendeur, coco.

Le profilage en ligne, un risque pour la démocratie

Revenons maintenant à la loi sur les fake news souhaitée par notre Président. Outre le fait qu’en France on punit déjà la diffamation, la calomnie, et même la diffusion de fausses informations, j’affirme que les fake news ne sont pas un vrai problème. En effet, la solution est déjà connue, accessible à tous, et diffusée à notre jeunesse : questionner toute information un tant soit peu extraordinaire et apprendre à rechercher les sources. Je ne dis pas que c’est facile à faire, je ne nie pas le coût cognitif et en temps perdu induit par les solutions, mais se tromper est toujours plus coûteux que de vérifier, et non seulement on a déjà des solutions, mais de plus ces solutions ont des effets secondaires appréciables : renforcement de l’esprit critique, apprentissage de la méthode scientifique, accès à des questionnements philosophiques, etc.

Par contre, la méthode de Cambridge Analytica décrite ci-dessus est un vrai risque pour la démocratie : nul n’est besoin d’inventer des informations fausses, ni même de les caviarder. Il suffit pour se transformer en marionnettiste de l’opinion de choisir et pousser des informations vraies, vérifiables, mais bien sélectionnées pour être susceptibles de changer l’avis de la personne d’après son profil psychologique et politique, et ce sur le nombre limité d’électeurs ou de décideurs suffisant pour faire basculer un choix. Quand on lit le livre blanc de Facebook sur les influenceurs d’opinion, conséquence de l’enquête américaine, on constate que cette méthode n’est pas dénoncée ; il est d’ailleurs intéressant de noter dans ce document d’avril 2017 que les mesures envisagées par Facebook en collaboration avec les autorités sont miraculeusement alignées sur ce qu’a déclaré notre Président. A moins que la chronologie – et une pointe de mauvaise foi ? – ne nous pousse à dire que c’est l’inverse. Décidément, bien que seul le Danemark ait nommé un ambassadeur auprès des GAFA, il semblerait de plus en plus que ceux-ci interagissent avec les États d’égal à égal. Ne leur manque plus que la territorialité – enfin pour l’instant.

Cette non dénonciation de ces pratiques de profilage ne peut pas étonner ceux qui me lisent régulièrement : c’est le business model même de Facebook ! Quand certains écrivent que les journalistes sont gonflés de se plaindre des chauffards du bobard, alors qu’eux-mêmes n’en sont pas toujours exempts, je dis que  Facebook serait gonflé de se plaindre du profilage de ses utilisateurs puisque c’est le gros de sa valeur capitalistique. Et on ne s’étonnera donc pas que les outils technologiques qui permettent ces méthodes – like, commentaires, partages accessibles aux applications tierces sur autorisation de l’utilisateur –  existent toujours dans Facebook, et ne disparaîtront pas. Par contre, à coup de « meilleurs commentaires », Facebook s’érige de plus en plus en censeur, automatique bien sûr, et il devient de plus en plus difficile de mener des discussions complexes et argumentées dans les fils de commentaires.

Une solution partielle contre ces pratiques existe, la veille informationnelle (exemple), dont les principes sont de multiplier ses sources d’information et de penser volontairement contre soi-même en écoutant tout le monde, y compris des personnes pour lesquelles on a une aversion naturelle, mais d’une part, ce n’est qu’une solution partielle car les mécanismes mentaux qu’exploite Cambridge Analytica sont des biais cognitifs naturels de l’être humain, et qu’on en soit conscient ou non, on y reste sujet, et d’autre part, contrairement à l’application de la méthode critique, le coût cognitif est ici gigantesque : lire un maximum de sources prend un temps considérable, et s’infuser des contenus dont vous savez d’avance que les trois quarts vont vous faire sauter au plafond est exténuant. J’en sais quelque chose, je suis un libéral qui lit parfois le monde diplomatique !

Le profilage, un risque pour l’humanisme ?

Pour finir, j’aimerais élargir la réflexion sur ces conséquences du profilage au-delà des élections. Je ne pense pas que les intelligences artificielles soient proches d’acquérir la conscience – vous pouvez lire cet article lumineux sur la question – mais cela ne veut pas dire qu’elles sont sans risque. Les intelligences artificielles effectuent de mieux en mieux des tâches que l’humain fait naturellement : reconnaissance de la parole, des émotions, catégorisation d’objets dans des photos, analyse de dossiers, etc. Encore plus fort, comme évoqué ci-dessus, l’intelligence artificielle devient capable de déterminer des corrélations qu’aucun être humain ne serait capable de trouver, car elles impliquent de raisonner sur un volume d’information trop grand pour l’esprit humain.

La tentation est alors grande de laisser les intelligences artificielles prendre de plus en plus de décisions, l’argument, tout à fait rationnel, étant qu’elles prendront de meilleures décisions que les humains. Et c’est là qu’est le risque pour l’humanisme : si une intelligence artificielle nous connaît mieux que nous-mêmes, et prend de meilleures décisions pour nous que nous-mêmes, que nous reste t’il comme liberté ? Comment éviter la standardisation, comment conserver la créativité qui naît du chaos ? On pourrait penser que ce risque est aussi lointain que celui de voir Terminator sonner à notre porte, mais de nombreux indices laissent penser que non : la nourriture standardisée qui libère de la soit-disant tyrannie de la bouffe existe déjà et se vend plutôt pas mal, l’intelligence artificielle aide les analyses génétiques et l’association des médecins américains spécialistes de la fertilité considère que choisir un embryon sur la base d’un scoring génétique est à la fois justifié et éthique et l’amélioration de l’humain par des puces dans le cerveau est en marche.

Et si le risque n’était pas des manipulations grossières et aisément démontables pour qui est armé intellectuellement, mais des technologies et des usages qui sapent le fondement même de notre libre arbitre, et qui sont le business model de ceux à qui on va confier la surveillance ? M. le Président, recevez Eric Léandri, PDG de Qwant, ou Tim Berners-Lee, un des inventeurs du web, et pas Tim Cook, PDG d’Apple. Au lieu de négocier avec Facebook les couleurs du papier peint de la prison, faites péter ses murs.

L’ère du monopole cognitif

Lors de la dernière conférence « e-commerce one to one 2017 », Guillaume Bacuvier, vice président de la publicité chez Google, a décrit dans sa présentation « The age of assistance » (l’ère de l’assistance) la direction qu’allait prendre leurs outils de recherche. D’après Google, les internautes sont toujours plus des mobinautes, ce qui multiplie les accès à internet, devenu toujours disponible, ils parlent de plus en plus de vive voix à leur téléphone intelligent et ils utilisent plus les messageries privées que les réseaux sociaux. Ils en déduisent que nous arrivons dans l’ère de l’assistance, où la relation avec les outils technologiques doit devenir personnalisée à l’extrême et où l’internaute ne recherche plus des informations, mais pose des questions auxquelles il veut des réponses ; ces questions sont toujours plus personnelles, et font toujours plus appel au contexte – position géographique, préférences personnelles, questions précédentes, etc. Vous avez dans votre poche une petite intelligence artificielle qui vous connait mieux que votre meilleur ami ou que vous-même, au moins analytiquement si ce n’est sentimentalement, et avec qui vous conversez, comme avec ces chatbots qui peuplent les services client des sites e-commerce. L’acmé de cette vision est que le moteur de recherche ne donne plus des wagons de réponses que l’internaute consulte, mais la réponse que vous cherchez. Ca semble super, hein ? Détrompez-vous : c’est la plus belle machine à rendre con depuis l’avènement de la vie sur cette planète.

La pensée méditante

Qu’il fut un nazi de circonstances ou un nazi de conviction, Heidegger n’en a pas moins mené des réflexions incontournables, en particulier sur l’homme et la technique, dont ces quelques paragraphes de « Sérénité » (Questions III) :

« Lorsque nous dressons un plan, participons à une recherche, organisons une entreprise, nous comptons toujours avec des circonstances données. Nous les faisons entrer en ligne de compte dans un calcul qui vise des buts déterminés. Nous escomptons d’avance des résultats définis. Ce calcul caractérise toute pensée planifiante et toute recherche. Une pareille pensée ou recherche demeure un calcul, là même où elle n’opère pas sur des nombres et n’utilise ni simples machines à calculer ni calculatrices électroniques. La pensée qui compte calcule. Elle soumet au calcul des possibilités toujours nouvelles, de plus en plus riches en perspectives et en même temps plus économiques. La pensée qui calcule ne nous laisse aucun répit et nous pousse d’une chance à la suivante. La pensée qui calcule ne s’arrête jamais, ne rentre pas en elle même. Elle n’est pas une pensée méditante, une pensée à la poursuite du sens qui domine dans tout ce qui est.
Il y a ainsi deux sortes de pensée, dont chacune est à la fois légitime et nécessaire : la pensée qui calcule et la pensée qui médite.
Or c’est cette seconde pensée que nous avons en vue lorsque nous disons que l’homme est en fuite devant la pensée. Malheureusement, objectera-t-on, la pure méditation ne s’aperçoit pas qu’elle flotte au-dessus de la réalité, qu’elle n’a plus de contact avec le sol. Elle ne sert à rien dans l’expédition des affaires courantes. Elle n’aide en rien aux réalisations d’ordre pratique.
Et l’on ajoute, pour terminer, que la pure et simple méditation, que la pensée lente et patiente est trop « haute » pour l’entendement ordinaire. De cette excuse il n’y a qu’une chose à retenir, c’est qu’une pensée méditante est, aussi peu que la pensée calculante, un phénomène spontané. La pensée qui médite exige parfois un grand effort et requiert toujours un long entraînement. Elle réclame des soins encore plus délicats que tout autre authentique métier. »

Heidegger y expose deux types fondamentaux de pensée : celle qu’il appelle la pensée calculante, que nous utilisons quand nous voulons aller d’un point A défini à un point B défini, et la pensée méditante, qui part d’un point A – après tout, on est toujours quelque part – et qui ne se déplace que pour le plaisir de se déplacer, sans but défini ni fin programmée. L’ordinateur est évidemment le roi de la pensée calculante : non seulement, il ne sait rien faire d’autre, mais en plus, une fois lancé, il est d’une efficacité qu’aucun être humain ne saurait approcher. De manière plus générale, toute machine, quelle qu’elle soit, est calculante de la façon dont Heidegger le définit.

Le lien hypertexte, arme de déambulation massive

Le lien hypertexte, composant fondamental du web, est une rareté en ce sens qu’il est un outil technique qui aide la pensée méditante. Qui ne s’est jamais perdu sur internet en se demandant comment, de fil en aiguille, il avait atterri sur ce site personnel rempli de remarques parfois amères mais toujours percutantes d’un expatrié au Japon ? Et souvent, par erreur, vous direz avoir perdu votre temps à surfer, alors que rien n’est plus rare et précieux dans notre monde couturé de techniques et de pensée calculante qu’une simple promenade sans but, qui au moindre détour peut vous ravir d’une découverte délicieusement inattendue…

Comme je l’ai déjà expliqué, une trop grande personnalisation des résultats de recherche a tendance à vous enfermer dans votre propre univers mental ; de la même façon, ne s’informer que via les réseaux sociaux vous restreint à votre tribu. Ce que Google propose dans cette ère de l’assistance est l’aboutissement ultime de cet appauvrissement cognitif. Le peu de hasard qui restait dans la possibilité que vous consultiez un résultat de recherche loin dans les pages au delà de la troisième ou quatrième est totalement évanoui : Google vous renvoie un résultat, votre résultat, et de toutes façons, l’interface est tournée de façon non pas à ce que vous cherchiez une ou plusieurs informations, mais que vous posiez une question dont Google cherchera à tout prix à éliminer toute équivoque en la recontextualisant.

Un totalitarisme soft ?

Nous en arrivons ici à la conjonction mortifère de deux tendances technologiques : la domination de Google sur la recherche d’information sur internet, qui amène à des aberrations comme le fait qu’on en vienne à appeler « web profond » ou « dark web » ce qui n’est pas accessible depuis Google – comme si ne pas être visible de Google était un nouveau péché mortel – et la catastrophe cognitive que constitue la personnalisation à outrance de l’accès aux données. Vous êtes désormais enfermés dans le web que Google pense être le plus adapté à vous. Si ce n’est pas l’outil rêvé de tous les dictateurs, ça y ressemble furieusement. Regardez parmi les questions qu’ont posées les internautes pendant le débat à 11 de la présidentielle : on y retrouve deux perles qui me semblent surréalistes, « pourquoi ne pas voter Fillon ? » et « pourquoi ne pas voter Macron ? ». Le journaliste, visiblement interloqué, conclut par « à vous de voir » ; pourvu que ça dure !

Je ne suis évidemment pas le seul à voir les choses sur cet angle et à alerter ; par exemple, le philosophe Slavoj Zizek a réagi de la même façon face à l’annonce d’une des nombreuses entreprises d’Elon Musk de vouloir développer une interface directe cerveau – intelligence artificielle, qui viendrait parachever le tableau ci-dessus. Il est plus difficile d’effectuer une opération du cerveau à quelqu’un qu’on veut extraire de cette domination cognitive que de lui casser son téléphone android… Il pose également deux constats à mon sens incontournables pour répondre au problème : d’une part, quand quelque chose est techniquement faisable, cette chose sera faite, aucune considération morale n’arrête jamais bien longtemps la technique, et d’autre part, l’arrivée de ces techniques aura pour conséquence que la capacité à raisonner sans l’aide de ces assistants, et bien évidemment la capacité à les programmer et à les comprendre, sera très probablement la marque prochaine de ceux qui domineront la société. Il se pose enfin la question de savoir qui contrôlera ces outils : une telle puissance détenue par une entreprise commerciale fait naturellement froid dans le dos, mais dans les mains d’un Etat, qu’il soit démocratique au départ ou non, ce n’est pas plus réjouissant. La seule personne à qui je veux bien laisser le monopole cognitif de mon cerveau, c’est moi.

Comment éviter le monopole cognitif ?

Les premiers auxquels je pense en écrivant cet article sont mes enfants : je suis formé, qui plus est à l’informatique, la science du traitement de l’information, et je suis conscient de ces problématiques, je suis donc déjà sauvé du risque. Des adultes ayant vécu leurs années formatrices jusque grosso modo la fin des années 2000 ont été au contact d’autres formes d’acquisitions de l’information, même si il serait naïf de croire que la situation antérieure était idyllique ; si, par exemple, le taux d’illettrisme monte avec l’âge, ce n’est pas parce qu’on apprenait mal à lire il y a 50 ans, mais simplement parce que les gens perdent la capacité à lire et comprendre un texte si ils ne la pratiquent pas ; une fois sorti de l’école, une bonne partie de la population ne s’intéresse plus beaucoup à l’acquisition de connaissances, Google ou pas Google.

Mais maintenant, imaginez des enfants, tables rases, qui apprennent tout collés à leur doudou cognitif en permanence, pour qui toute réponse est à portée de requête vocale – même plus textuelle, ce qui avait au moins la vertu de les faire lire et écrire – quelle valeur donneront-ils à la connaissance ? Car même dans l’ère de l’assistance, quand on veut atteindre un niveau élevé dans quelque domaine que ce soit, puis créer et innover, il faut construire dans son esprit une pyramide du savoir solide pour se projeter vers l’avant. Par ailleurs, qui va influencer qui quand l’intelligence artificielle va s’adapter aux goûts et préférences d’un être qui n’est pas formé ? A l’instar du peuple de 1984 qui perd sa capacité à exprimer certaines notions non souhaitables par l’Etat, ces enfants auront-ils la capacité d’extraire des informations ailleurs que chez Google ?

Il faut donc en premier lieu éloigner les enfants en phase d’apprentissage de ces outils au minimum jusqu’à ce qu’ils soient capables de comprendre l’importance de s’informer à des sources les plus diverses possibles, de ne pas s’enfermer dans sa sphère personnelle, d’exercer sa pensée méditative régulièrement, et que toute connaissance valable et un tant soit peu complexe s’acquiert dans les livres, qu’on les lise sur du papier ou en électronique, et pas dans un tweet ou un post facebook qui ne peuvent être plus qu’un point de départ.

Pour les adultes, bien que l’avènement des technologies soit inévitable, leurs conséquences ne le sont pas. Afin d’éviter les risques de ce monopole cognitif, il est plus que jamais temps de pratiquer la pensée méditative en s’astreignant à s’extraire régulièrement de l’obligation de résultats. S’ennuyer, surfer sans but sur internet, tester une direction ou une autre juste pour voir si ça marche, tout ça n’est pas de la perte de temps, c’est une condition sine qua none de la condition d’être humain pensant libre. Plutôt que de poser des questions à votre ordinateur, et d’utiliser votre téléphone comme votre doudou cognitif, prenez-vous en mains, devenez chercheur d’informations, utilisez les outils qui ne vous profilent pas.

Par ailleurs, ces outils d’assistance peuvent être orientés d’une façon moins néfaste pour la pensée humaine : par exemple, on pourrait imaginer d’y introduire volontairement des éléments aléatoires, où l’intelligence artificielle nous surprendrait, nous faisant sortir de nos sentiers battus. Elle en est capable, encore faut-il que ses concepteurs en aient l’envie, et pas uniquement pour nous y faire passer de la publicité… Non, décidément, Google, qui tire le plus gros de ses revenus d’adwords, ne paraît pas être le mieux placé pour éviter l’ère du monopole cognitif !

Pour une éthique de l’informaticien : l’utilisateur au centre du système d’informations

Bouygues Telecom, pour ses 20 ans, a lancé une campagne de publicité dont le slogan est « We love technology ». Cette accroche anglophone posée, le sous-texte est un chef d’oeuvre de littérature publicitaire : « De notre premier portable à nos derniers Snapchats, de notre premier coup d’œil à nos mails le matin, à nos derniers SMS envoyés, de nos premières vidéos à succès à nos dernières séries préférées en replay… Si la technologie a pris tant de place dans nos vies, c’est sans doute parce qu’on l’aime. Et comme chez Bouygues Telecom nous partageons cette passion avec vous, nous sommes heureux grâce à notre 4G, nos forfaits et nos Box, de la rendre accessible à tous. ». Passons sobrement sur l’énumération d’outils offerts via les offres Bouygues Telecom de la première phrase et la promesse publicitaire de la dernière phrase – chez nous vous aurez les meilleurs technologies et pour pas cher, venez venez – pour nous concentrer sur le slogan et son explication.

Le rédacteur nous sauve de la crétinerie fondamentale de déclarer notre flamme à notre téléphone ou à notre modem par l’emploi de la paradoxale locution « sans doute », dont le rôle est justement d’en introduire un, de doute. Mais le plus intéressant est à mon sens l’utilisation du terme anglais « technology » et en parallèle l’emploi du singulier pour le mot français « technologie » ; dans la langue française, celui-ci a trois acceptions :

  • la science et l’étude des techniques et des outils en général
  • l’ensemble des termes propres à un art qui n’est plus très usité
  • un champ technique particulier : la technologie médicale, la technologie du moteur à explosion, etc. On parlera alors plutôt des technologies

En anglais, on n’en retrouve que deux : d’une part, le premier sens français, et d’autre part l’ensemble de toutes les techniques d’une culture ou d’un peuple. Comme Bouygues Telecom ne parle pas d’un amour immodéré de ses clients pour la science étudiant les techniques, et qu’aucun champ particulier n’est précisé, le singulier français « technologie » doit être compris comme un anglicisme signifiant les techniques et outils rassemblés en un tout. Une question vient alors immédiatement à l’esprit : en dehors de l’idée aberrante qu’on puisse aimer un ensemble aussi gigantesque et disparate, cela a-t-il un sens de considérer l’ensemble des techniques comme un tout cohérent ? Entre en scène le sociologue français Jacques Ellul.

L’avènement de la Technique

Dans « Le système technicien », en 1977, il décrivit l’émergence de la Technique – terme qui a dans son oeuvre le même sens que le « technology » anglais – comme l’ensemble des techniques précédemment séparées mais désormais unies par l’informatique. C’est une entité sans but particulier mais en perpétuel accroissement, qui structure nos modes de pensée et nos façons de vivre, mais qui ne possède ni morale, ni éthique propres. L’intuition géniale de ce grand penseur, étrangement méconnu en France, est d’avoir vu que l’informatique jouerait le rôle de cerveau organisant le travail des divers champs technologiques qui eux existent depuis qu’homo sapiens s’est différencié mais sont toujours restés dépendants d’une orchestration humaine. Les exemples récents de projets d’usines entièrement automatisées, sans aucune intervention humaine, combinant machines et intelligences artificielles faibles, prouvent qu’une version concrète de sa vision abstraite et sociologique d’un système technicien autonome se rapproche :

Je ne partage pas toutes les idées de Jacques Ellul – en particulier, il compare la Technique à un cancer de la société de par sa propension à croître apparemment sans limites et à phagocyter son hôte, mais au contraire des cellules cancéreuses qui utilisent toute leur énergie à la multiplication et ne remplissent plus leurs tâches habituelles, les éléments individuels constituant la Technique rendent globalement les services qu’on attend d’eux – mais sa réflexion me semble centrale dans la constitution d’une éthique pour le concepteur de système que je suis, sujet qui n’a jamais été abordé pendant ma formation, et qui me parait totalement absent des préoccupations quotidiennes des ingénieurs.

Ethique et conception des systèmes informatiques

La réflexion éthique sur le sens de la technique a un intérêt philosophique et sociologique évident pour l’ingénieur, dont on se demande bien pourquoi elle serait la seule profession qui ne s’interrogerait pas sur sa place et son rôle dans la société. Dans cet article, je vais tenter de démontrer qu’elle a également un intérêt plus pragmatique dans la pratique quotidienne du métier.

De fait, l’informatique est souvent définie et comprise plus comme un ensemble de technologies que comme une science, et cela a des conséquences évidentes sur la formation des informaticiens : celle-ci est la plupart du temps très technique, se concentrant sur les paradigmes de programmation et d’architecture – programmation fonctionnelle, objet, impérative ou déclarative, déploiement proche du métal ou en machine virtuelle, architecture locale ou distribuée, serveur physique ou machine virtuelle, sans même parler des langages eux-mêmes – et oubliant les aspects conceptuels du métier – ce qu’est une information, pourquoi et comment on la manipule et on la présente, et le sens qu’elle a pour les utilisateurs.

On retrouve évidemment ensuite cette tendance technoïde en entreprise, et dans l’environnement actuel où quasiment tous les postes de travail sont équipés d’ordinateurs – à part celui des chefs pour accentuer leur différence – et où tous les processus de l’entreprise font intervenir l’informatique comme un élément central, les techniciens informatiques se voient conférer un sentiment de toute puissance dont le costume IBM, le consultant SAP et le créateur de startup maître des algorithmes furent tour à tour des symboles. Bien sûr, les programmeurs ne sont pas des robots codeurs, ils ont un avis sur les interfaces utilisateur et la meilleure façon de modéliser les processus, étant eux-mêmes utilisateurs ; mais si vous faites vos applications suivant vos critères de technicien spécialiste, et que vous cédez à la tendance facile de considérer que les utilisateurs doivent s’adapter à l’outil informatique et pas l’inverse ou qu’un logiciel pas franchement adapté soit toujours meilleur que pas de logiciel du tout, il y a de bonnes chances pour que vos créations ne conviennent qu’à vous et vos collègues, qui constituez une portion assez faible du marché. La prise en compte des desiderata des utilisateurs et de leur façon d’exercer leur activité doit donc être une préoccupation constante des programmeurs.

WP_20160608_12_51_32_Pro
Mais puisque je te dis que SAP est incontournable pour ta PME artisanale !

Les préoccupations éthiques mises en avant par Jacques Ellul rejoignent cette réflexion : si nous experts techniques concevons les outils que nous créons comme devant s’imposer aux utilisateurs, voire même les transformer et les améliorer comme le promeuvent les transhumanistes – vous êtes les inadaptés, amis primates – plutôt que de les assister dans leurs tâches, son système technicien aveugle et amoral ne peut qu’advenir. Cette réflexion n’est bien entendu pas très originale ; les méthodes agiles qui se structurent depuis le début du siècle reconnaissent le rôle central de l’utilisateur, jusqu’à l’intégrer formellement dans l’équipe de développement. Cependant, un aspect du problème, au cœur de ma définition de la science informatique, me semble rester dans l’angle mort des méthodes accessibles aux programmeurs, bien qu’il soit étudié sous diverses formes par les chercheurs : la différence entre une donnée et une information, entre un chiffre brut et une donnée contextualisée.

Les frontières du système d’informations

De manière classique, on définit un programme comme des entrées, un algorithme, et des sorties, ce qui se traduit dans l’esprit des développeurs comme les entrées que je récupère de mon interface utilisateur, le traitement défini dans les spécifications, et les sorties que j’affiche dans mon interface utilisateur. En fonction des sensibilités aux questions d’ergonomie, ils travailleront plus ou moins celle de leur logiciel, mais rares sont ceux qui considéreront comme moi que l’interface utilisateur ne constitue pas la frontière du système d’informations, et c’est une source majeure d’échecs pour les projets informatiques.

En effet, quel que soit le soin apporté à l’interface utilisateur, la qualité de l’enchaînement des écrans et des contrôles de saisie, la précision et la pertinence des messages d’alerte et d’erreurs, si la modélisation du processus n’a pas pris en compte la façon dont est obtenue la donnée par l’utilisateur du système avant d’être saisie et son adéquation avec ce qui est attendu, ou encore la façon dont sera interprétée et utilisée dans le monde réel une information affichée, les risques d’erreur sont multiples et aboutissent à rendre le système inopérant voire délétère :

  • en écriture, l’utilisateur n’a pas l’information souhaitée et l’invente ou la déduit selon des règles personnelles inconnues du concepteur
  • pire, il croit de bonne foi l’avoir, mais se trompe sur ce qui est demandé
  • la précision de la donnée n’est pas adéquate, que ce soit insuffisant ou superfétatoire ; ce risque est particulièrement pregnant pour le calcul scientifique dont les optimisations dépendent lourdement de la précision attendue
  • en lecture, les mêmes écueils existent pour la réutilisation d’une information affichée, que ce soit par une incompréhension de ce qu’elle signifie ou du fonctionnement de l’algorithme qui l’a générée

La leçon à tirer de ces réflexions est que les utilisateurs font partie intégrante du système d’information ; il est donc fondamental de s’enquérir de leur façon de concevoir leur métier, les processus auxquels ils participent et les tâches qu’ils accomplissent, mais également connaitre et partager le vocabulaire qu’ils emploient pour désigner les entités appelées à être manipulées par le système. Une fois la mise en production effectuée, il faut contrôler régulièrement la façon dont le logiciel est employé, y compris en dehors de toute phase d’évolution, et pas uniquement en analysant des statistiques d’utilisation, mais également en regardant les utilisateurs s’en servir. Je me souviens au début de ma carrière d’un client allant chercher dans le code source HTML de la page une information qui était accessible en un clic à l’aide d’une fonctionnalité documentée !

Conclusion

Collègues développeurs, architectes et consultants, si la place centrale qu’occupe l’informatique dans le monde d’aujourd’hui ne suffit pas à vous convaincre de l’importance d’une réflexion sur l’éthique de votre profession et l’impact social voire anthropologique de votre industrie, j’espère vous avoir convaincu que vous en préoccuper vous permettra d’être plus efficace et apprécié de vos clients sur le long terme, et gardez à l’esprit qu’aussi imparfaits et incontrôlables qu’ils soient, en attendant l’avènement de Skynet ou d’Omnius, les utilisateurs humains sont des rouages indispensables de vos systèmes d’information que vous devez placer en tête de vos préoccupations lors de la conception, du développement et de la maintenance de vos logiciels.

Etat de l’internet en l’an 10 des réseaux sociaux (1) : les prémisses

De nombreuses réflexions que je me fais depuis plusieurs années sur internet, les contenus qui y sont publiés et les dispositifs permettant d’y accéder se sont cristallisées d’un seul coup dans mon esprit en une idée de série d’articles à la lecture de cette tribune d’Hossein Derakhshan, blogueur irano-canadien qui à sa sortie de prison en Iran a découvert un paysage de la diffusion de contenus sur internet nouvellement dominé par les réseaux sociaux. Je ne partage pas totalement le pessimisme de ce texte, mais il pose des questions extrêmement intéressantes sur l’évolution actuelle d’internet, auxquelles je vais tenter d’apporter des réponses solidement ancrées dans la technique mais à la portée universelle.

Pour ce premier article, je vais me pencher sur les racines techniques d’internet qui ont défini son identité et assuré son succès.

Internet, le réseau des réseaux

Les premiers réseaux informatiques liant des ordinateurs entre eux datent de la fin des années 50, et reliaient des machines physiquement proches et en tout état de cause, la communication se passait de façon homogène, c’est-à-dire que d’une manière logique, l’information transmise ne traversait qu’une seule barrière, la limite qui sépare un ordinateur du medium physique la transportant jusqu’à l’autre ordinateur.

Réseau simple

Les années 60 virent le développement des réseaux locaux, et ce qui est considéré comme le premier réseau interconnecté, ARPANET, est né en 1969. Il fonctionnait de la façon suivante : des machines locales étaient toutes reliées à un ancêtre de routeur appelé IMP via une liaison série maison, et ces IMP discutaient entre eux en utilisant des liaisons téléphoniques dédiées – il est amusant de noter que la première RFC (Requests For Comments, forme de documents de spécifications des éléments techniques d’internet) décrit le fonctionnement des IMP. Les deux points révolutionnaires de cette approche sont la notion de commutation de paquets, et la capacité à traverser plusieurs barrières logiques avec des media physiques potentiellement différents pour transporter les données offerte par le routeur.

Jusqu’à l’invention de la commutation de paquets, une ligne de communication était dédiée à une conversation unique, comme avec le téléphone ; chaque paquet transporte l’information de la source et de la cible, de façon à ce que tous ceux qui empruntent la ligne de communication sachent si l’information leur est destinée.

Le routeur, quant à lui, est là pour gérer le trafic allant et venant vers les réseaux distants ; c’est un traducteur, connaissant à la fois la langue et les personnalités locales, ainsi que l’espéranto commun et les communautés distantes.

Le schéma précédent devient :

Réseau routé

 

Une fois ce modèle mis en oeuvre, petit à petit, étape par étape, en améliorant les protocoles de communication, en étendant le nombre de routeurs traversables pour lier deux machines, s’est créé au début des années 90 un réseau mondial, auquel la plupart des réseaux locaux sont connectés.

Internet est donc à sa source même une technologie reliant des ordinateurs entre eux, sur la base de langages techniques appelés protocoles, sans donner d’importance particulière aux nœuds, si ce n’est aux routeurs qui ont comme rôle spécifique d’assurer des ponts entre des réseaux hétérogènes.

L’hypertexte, réseau des contenus

Tout cela est bel et bon, mais comme les ordinateurs ne sont que des machines sans intelligence, il faut bien que la communication entre les machines serve à convoyer des informations intéressant les êtres humains. Un service auquel on pense immédiatement est le partage de fichiers distants où un serveur met à disposition une liste de fichiers accessibles ; le protocole FTP remplit ce besoin dès 1971 avec la RFC 114. On peut résumer l’architecture de partage de contenus ainsi créée par le schéma suivant :

ContenuCentralise

 

Ce qui frappe immédiatement dans cette organisation, c’est qu’elle ne correspond pas à l’organisation technique des machines ; autant le transfert de données bas niveau entre ordinateurs est par essence décentralisé et symétrique, autant dans ce mode, la consommation de contenus est centralisée et asymétrique. D’un point de vue fonctionnel, elle limite le partage d’informations ; d’un point de vue technique, elle pose de gros  problèmes de performance car certains nœuds du réseau, ceux qui servent le contenu, doivent être traités différemment des autres car ils seront plus sollicités. On peut noter cependant qu’elle correspond assez bien à l’idée juridique que les pays développés se font de la propriété intellectuelle.

En réponse à cette inadéquation fonctionnelle de la fourniture de contenus avec les possibilités techniques du réseau, a été créé au CERN par Tim Berners-Lee et Robert Cailliau le World Wide Web, un réseau des contenus, avec comme notion fondamentale le lien hypertexte qui permet à un document de faire référence à un autre document, parfois sur le même serveur de contenus, parfois sur un serveur à l’autre bout du monde. Comme vous avez pu le constater avec mes magnifiques schémas ci-dessus, faire un graphique parlant de ce réseau de contenus est au-delà de mes capacités ; je me contenterai donc de reprendre un exemple de représentation visible dans wikipedia :

This Wikipedia and Wikimedia Commons image is from the user Chris 73 and is freely available at http://commons.wikimedia.org/wiki/File:WorldWideWebAroundWikipedia.png under the creative commons cc-by-sa 3.0 license.

La question technique posée par la centralisation des serveurs de contenus n’est pas résolue par cette solution ; c’est le rôle des CDN (Content Delivery Network) qui dupliquent les contenus sur des machines au plus proche des consommateurs, et du peer to peer, qui distribuent la responsabilité de fournir le contenu à un maximum de nœuds dans le réseau, mais c’est une autre histoire.

Conclusion

S’appuyant sur ces deux technologies, Internet est prêt à envahir le monde : un réseau extensible d’ordinateurs et un réseau extensible de contenus, marchant la main dans la main, construits principalement par la communauté scientifique, dans un soucis de partage du savoir et de la puissance de calcul. Dans le second article, nous verrons ce que la première phase de l’ouverture au grand public en aura fait.

Le côté obscur de l’information

L’Union Européenne publie depuis 2014 un indice répondant au doux nom de DESI (Digital Economy and Society Index, Indice d’Economie et de Société Numérique) dont le but est de comparer l’avancement des états européens en termes de pénétration des outils numériques. La France se trouve classée au milieu de la mêlée, avec d’assez mauvaises notes en déploiement du très haut débit et en utilisation par les PME – allez par là pour vous lancer, amies PME – mais des bonnes notes en formation professionnelle et en administration numérique.

Le choix des indicateurs est à mon sens au moins aussi éclairant que les résultats eux-mêmes : l’omniprésence de l’utilisation d’internet, qui pourtant n’existe pour le grand public que depuis moins d’une génération, est frappante, comme si les usages numériques se limitaient quasiment exclusivement aux services disponibles sur internet.

Mais les sous-catégories qui ont particulièrement attiré mon attention sont la 3a et la 3b, usage d’internet / contenu et communication, sensées traiter des contenus et de l’interaction en ligne. Commençons par décrire les indicateurs.

Le contenu sur internet en 2015, objet de consommation ?

L’étude mesure la pénétration des contenus numériques en Europe en évaluant le pourcentage d’internautes consommant des actualités, de la musique, des vidéos et jeux, de la vidéo à la demande et de la télévision par IP, et la communication par les appels voix ou vidéo sur IP et l’utilisation des réseaux sociaux.

Ces indicateurs, combinés les uns avec les autres, dessinent un réseau dans lequel les contenus sont produits par des services centraux, puis poussés vers des consommateurs dont la seule action est le commentaire et le partage. Pour une étude débutée en 2014, c’est un choix assez surprenant, sachant que la révolution du web 2.0 – dont la principale caractéristique est de décentraliser la production de contenus par la démocratisation des moyens de création et de diffusion – est maintenant bien stabilisée. Malheureusement, les choix des indicateurs sont trop peu motivées pour en tirer une quelconque conclusion éclairée ; est-ce un reflet du lobbying des acteurs historiques de la production de contenus ? Est-ce une impossibilité matérielle d’obtenir des chiffres exploitables ? Mystère.

Les résultats n’en sont pas moins intéressants ; par exemple, la France, créatrice du modèle « triple play », est en tête et pas qu’un peu dans les domaines de la télévision par IP et la vidéo à la demande, alors que nous sommes dans les derniers de la classe pour l’abonnement au très haut débit dont on pourrait pourtant penser qu’elle est une condition du déploiement de ces services. Là se trouve résumée la grande faiblesse de cette étude : aucune corrélation n’est faite entre les indicateurs et aucune tentative d’explication n’est apportée ; d’une part, on peut assez facilement attribuer le relatif faible débit constaté en France à la structure géographique de notre pays – les pays plus physiquement centralisés trustant les premières places – et d’autre part, quelle importance accorder à la pénétration du très haut débit si l’implantation des services l’utilisant le plus en semble totalement décorrélée ?

Mais le chiffre le plus amusant est pour moi le 3b2 : la France est la dernière dans toute l’Union Européenne pour l’utilisation des réseaux sociaux, mesurée comme l’écriture de message ou autres contributions à Facebook, Twitter, etc. J’ai immédiatement rapproché ce chiffre d’un concept très rigolo : le « dark social ».

Le « dark social », késako ?

J’ai vu apparaître le terme en fin d’année 2014, ici ou  ; il semblerait qu’après la vague de croissance des réseaux sociaux, et leur tentative d’apprivoisement pas toujours réussie par les entreprises, les services marketings et communication se soient réveillés d’un seul coup pour s’apercevoir que les moutons les consommateurs avaient le front de parler de tout et n’importe quoi en dehors des réseaux sociaux, loin des capacités d’analyse automatisée : échanger des liens intéressants, donner leur avis sur des produits, etc. D’après les évaluations relayées, nous serions les rois de l’OCDE du « dark social », ce qui entre parfaitement en résonance avec les chiffres de l’Union Européenne.

Au delà de l’ironie de voir nommer « dark social » la communication interpersonnelle qui existe depuis la nuit des temps – donc en opposition avec une tendance pourtant extrêmement récente à considérer qu’il est loisible de rendre public ses avis, ses goûts et ses opinions – il me semble intéressant de juger de la pertinence de considérer que c’est une preuve de maturité numérique que d’utiliser massivement les réseaux sociaux.

Maîtriser les nouvelles technologies de l’information, au delà de l’utilisation des outils, ce doit être comprendre ce qu’est une information, quelle est sa valeur, sa qualité, à qui la transmettre et comment ; dans le cas précis des réseaux sociaux, l’idée selon laquelle tout y est public, directement ou indirectement, et que s’y exprimer revient à aller crier à tue-tête sur la place du village, commence à faire son chemin, mais prend du temps à être complètement intégré dans les modes de pensée du grand public.

En ce sens, il me semble qu’une utilisation modérée et contrôlée des réseaux sociaux relève d’une appréhension plus fine des outils numériques ; du coup, le critère 3b2 ne me semble absolument pas pertinent, dans un sens ou dans l’autre. Il faudrait certainement le remplacer par des critères plus qualitatifs sur la façon d’utiliser les réseaux sociaux, mais ils sont probablement très compliqués à définir et à standardiser à l’échelle européenne.

Mais au moins maintenant, vous saurez qu’en envoyant un email à vos amis sur une nouvelle vidéo YouTube, tel M. Jourdain, vous faites du « dark social » sans le savoir !

Faut-il enseigner « le code » à l’école ?

En octobre 2014, le Conseil National du Numérique a publié un rapport sur le numérique et l’éducation dont la traduction médiatique et politique a principalement tourné autour de la proposition d’enseigner la programmation à l’école, sujet qui m’a évidemment intéressé, étant fils de professeurs, formateur à mes heures, et professionnel de l’informatique. Ma première réaction, épidermique, a été de rejeter l’idée d’emblée, surtout en écoutant les débats médiatiques menés par des ignorants à la fois des questions éducatives et de la discipline informatique, qui en général considéraient qu’il était nécessaire de connaître la programmation pour évoluer dans la société de l’information. Comme si il fallait savoir construire une centrale nucléaire pour utiliser le courant électrique… Après réflexion, et documentation sur la façon dont cette idée était présentée dans le rapport – toujours lire les rapports ! – mon avis a évolué tel que je vais vous le présenter ici.

Le contenu du rapport

Je ne vais pas résumer tout le rapport ; je me limiterai à décrire succinctement ses différentes parties et préciser ce qui tourne autour de l’enseignement de l’informatique per se.

Loin de se limiter à l’apprentissage de la programmation, ce rapport analyse tous les aspects de la relation qu’entretiennent le système éducatif et les outils et disciplines informatiques : non seulement l’utilisation du numérique à l’école pour lui-même et l’apprentissage de la discipline informatique, mais aussi l’utilisation du numérique pour les autres matières, ainsi qu’une éducation plus générale aux outils numériques que pourront rencontrer les élèves dans leur vie, les transformations que ces outils amènent dans la vie de tous les jours et la citoyenneté. Il fait un plaidoyer assez convaincant pour une intégration en profondeur du mode de pensée informatique dans le processus d’apprentissage des élèves, en précisant les prérequis et le chemin d’une telle transformation réussie.

A propos de la discipline informatique elle-même, j’ai été très heureux de lire que la proposition n’était pas de l’introduire par le petit bout de la programmation, mais par l’initiation à la pensée informatique, en primaire et – comble de joie – en mode connecté ou non (cf recommendation 1, page 29 du rapport).

La suite des opérations se passe au collège où le cours de technologie serait consacré une année à l’informatique, a priori en troisième, où l’on enseignerait des rudiments d’algorithmique et, en tant qu’application, de la programmation.

Enfin, l’informatique serait reprise au lycée dans toutes les sections, avec un approfondissement des notions déjà abordées au collège, en fonction des spécificités de la filière choisie par l’élève.

On est loin du simple « enseigner le code » relayé publiquement ; je reviendrai sur les raisons qui à mon avis ont amené à cette simplification, mais continuons par un retour dans les années 80.

La tortue et l’enfant

Je me souviens avec acuité qu’en CE2 nous étions partis par petits groupes dans une autre école afin d’y utiliser des ordinateurs. Nous avions déjà à la maison un TI99/4A que nous avions principalement utilisé avec mes frères pour jouer, même si nous étions parfois tombés sur le prompt Basic – sans trop savoir au premier abord à quoi il pouvait bien servir. Les ordinateurs de l’école étaient des Thomson MO5 et TO7 à claviers à gomme – quelle plaie ! – mis en réseau avec un Bull Micral 30 – que contrôlait la maîtresse – muni d’une imprimante à aiguille.

La principale utilisation de ces ordinateurs qui nous fut proposée – en dehors de programmation Basic extrêmement guidée, nous n’avions que 8 ans quand même – était de piloter la tortue ; le principe était de dessiner à l’aide d’une bestiole virtuelle à qui nous donnions des ordres simples comme avancer de x pixels, tourner de y degrés, changer la couleur etc. Ces ordres étaient exprimés en français courant, voici un exemple pour réaliser un carré :

POUR CARRE
REPETE 4 [AVANCE 100 TOURNEDROITE 90]
FIN

J’étais assez frustré de découvrir un outil que je connaissais pas, alors que j’avais annoncé avec fierté avoir un ordinateur à la maison et donc de bien savoir comment ça marchait, mais je me suis vite pris au jeu, réalisant plusieurs polygones réguliers et des rosaces, que j’avais déjà l’habitude de dessiner avec mon compas quand je finissais en classe mes exercices de mathématiques en avance. Et me voilà 30 ans plus tard directeur technique d’un éditeur de logiciels…

Au delà de l’aspect nostalgique, l’intérêt de cette expérience est de mettre en exergue ce que peut être une initiation réussie à la programmation : programmer, ce n’est que donner des ordres à un ordinateur ; en choisissant un domaine qui plait naturellement aux enfants, dessiner, et en limitant les ordres possibles à des primitives simples, l’enfant comprend très rapidement ce qu’est ordinateur – un esclave numérique, ce qu’il sait faire – répéter sans se fatiguer ni se lasser et à grande vitesse des listes d’instruction, et comment le faire – en parlant avec lui dans son langage.

Pour ceux que ça intéresse, la tortue est toujours disponible sur des plateformes récentes : http://www.yann.com/fr/apprendre-la-programmation-aux-enfants-avec-le-langage-logo-17/09/2010.html

Objectifs pédagogiques

Grosso modo, une matière peut s’enseigner pour deux raisons : soit elle dispense des savoirs immédiatement opérationnels, soit elle aide à la construction de l’esprit, les deux pouvant se combiner. Certains savoirs sont tellement fondamentaux que tous doivent les apprendre, comme la lecture, l’écriture, les 4 opérations et la règle de trois ; certains restent du domaine de la professionnalisation, comme de savoir faire correctement une piqûre pour un infirmier ou de dupliquer une clé pour un serrurier. Le latin est très peu opérationnel dans le monde moderne, mais sa capacité à structurer l’esprit et à aider à l’apprentissage du français ne sont plus à prouver. Dans quelles catégories tombe l’informatique ?

Si on se limite à la programmation, il est très tentant de ranger l’informatique dans les savoirs professionnels ; c’est à de très rares exceptions près le cas aujourd’hui, avec le très dommageable effet secondaire que même dans les études professionnelles, son enseignement est exclusivement utilitariste – un très bon sujet pour un futur article. Mais comme vous le savez si vous avez lu mes articles précédents, l’informatique est une science, avec un objet et des méthodes définies qui lui sont uniques ; sans même plonger dans une analyse poussée de la question, il est donc certain que son enseignement aide l’esprit à se structurer comme tout autre champ de la connaissance, si tant est qu’on l’enseigne comme une science et pas comme une technique. C’est ce dont parle le rapport du Conseil National du Numérique sous le vocable de « pensée informatique ».

Une des caractéristiques fondamentales de cette pensée informatique est la numérisation du réel afin de le rendre intelligible et exploitable par les ordinateurs ; cette numérisation a pour corollaire une très forte pression à la désambiguïsation qui peut aboutir à une standardisation de la pensée. Par exemple, quand vous commencez à saisir une requête dans un moteur de recherche, un système de suggestion va vous indiquer des compléments possibles ; vous fait-il gagner du temps, ou oriente-t-il votre pensée et votre désir ? Sachant que ces compléments proviennent d’études statistiques sur les requêtes les plus souvent lancées, je tendrais plutôt vers la deuxième option ; or, quoi de plus important dans la formation d’un futur citoyen que l’apprentissage de l’esprit critique et du libre-arbitre ?

Dans le même ordre d’idées, afin de réaliser ses traitements, l’ordinateur a besoin de données normalisées, et c’est à l’être humain qui l’alimente d’effectuer cette normalisation ; il est alors lui-même un objet informatique, puisqu’il fait partie de facto de la chaîne de traitement de l’information. Nos enfants peuvent rester des Monsieur Jourdain de l’informatique, mais étant donnée son ubiquité aujourd’hui, ce savoir ne peut qu’apparaître fondamental.

Voilà le genre de méthodes propres à la pensée informatique que les enfants doivent maîtriser pour se mouvoir dans la société numérique. Et ce n’est pas en programmant qu’ils l’apprendront – la plupart des programmeurs professionnels que je rencontre ne sont pas eux-mêmes conscients de ces questions !

Conclusion

Ma réponse courte à la question initiale est non ; si c’est pour retrouver à l’école la même approche utilitariste que je constate dans les formations professionnelles, mieux vaut ne pas perdre le temps de tout le système éducatif. Il est d’ailleurs tout à fait éclairant sur l’état de la réflexion sur l’école en France aujourd’hui que la réponse politique à ce rapport brillant et complet ait été d’en extraire le seul aspect purement utilitariste en oubliant tous les aspects pédagogiques et émancipateurs ; pour résumer ce que j’ai entendu, et j’ai bien tendu l’oreille, la petite musique était « apprenons le code le plus tôt possible à nos enfants, et nous damerons le pion aux américains et aux indiens dans la compétition numérique ». Si seulement.

Ma réponse longue, développée ci-dessus, est oui, si on applique scrupuleusement ce qui est développé dans le rapport : une initiation à la pensée informatique à l’école, sur le modèle de la tortue par exemple, mais d’autres initiatives très intéressantes existent comme « Computer science unplugged » (l’informatique débranchée), un approfondissement au collège avec de l’algorithmique simple et de la programmation en application, et une version plus avancée au lycée. Les professeurs suivront-ils, comme ma maîtresse avait su le faire à l’époque ? Les parents, ignorants de ces sujets, en comprendront-ils l’intérêt ? Les politiques, qui paraissent aujourd’hui mépriser ce qui construit l’esprit pour y préférer un utilitarisme de court terme, auront-ils la présence d’esprit de suivre le rapport à la lettre ?

Loi sur le renseignement : si elle passe, qu’est-ce-qui change ?

Je me concentrerai ici sur les aspects concernant l’hébergement d’applications, le domaine que je connais. Attention, je ne suis pas juriste, donc ce qui suit est ma lecture de technicien ; si un juriste passe par ici et m’explique en quoi je me tromperais éventuellement, je lui en serais reconnaissant.

Tout d’abord, la référence, c’est-à-dire la loi adoptée par l’Assemblée Nationale et qui repart maintenant au Sénat : http://www.assemblee-nationale.fr/14/ta/ta0511.asp. Pour ce qui est de l’hébergement, une des subtilités de la loi est qu’elle enrobe plusieurs textes existants, dont la loi pour la confiance dans l’économie numérique – qui n’a jamais aussi mal porté son nom – avec de nouveaux éléments déclencheurs (en particulier cet article : fourniture des clés de décryptage).

Les boîtes noires

On a beaucoup glosé sur les « boîtes noires » que les services de renseignement pourraient installer un peu partout sur internet pour suivre le trafic ; telles que décrites dans la loi, ces « boîtes noires » – le terme n’apparaît pas ainsi dans le texte – peuvent être installées chez les opérateurs faisant transiter des données dans le réseau, donc pour simplifier chez les FAI et les routeurs, ainsi que directement chez les hébergeurs puisque ceux-ci sont visés par l’article L246-1 du code de la sécurité intérieure (renommé en L851-1, voir ici) via l’alinéa 2 de l’article 6 de la loi pour la confiance dans l’économie numérique (voir ici). Ces dispositifs sont sensés analyser les données uniquement dans le but de rechercher des activités terroristes, et ce de façon anonyme. Si quelque chose est détecté, l’anonymat est levé.

En tant qu’hébergeur, nous devons donc laisser installer sur nos machines des dispositifs fournis par les services de renseignement, si ceux-ci peuvent nous fournir l’autorisation du Premier Ministre ou des personnalités qualifiées par lui. Nous pouvons éventuellement nous plaindre au Conseil d’Etat si nous considérons que la demande est injustifiée ; il doit se prononcer dans un délai d’un mois. Suite à la rencontre avec des représentants du collectif ni pigeon ni espion le gouvernement avait indiqué que nous pourrions demander quels étaient les algorithmes internes de ces dispositifs, mais je n’en vois pas trace dans la loi et de toutes façons cela me semblerait assez surprenant pour l’efficacité supposée de ces écoutes numériques.

Le décryptage des données

Dans le cas où les communications seraient cryptées, nous devons mettre à disposition des mêmes personnes les moyens de les décrypter (voir ici pour l’article initial, qui devient applicable aux demandes des services de renseignement en vertu de l’article 6 de la loi). Imaginons que l’Etat mette en oeuvre des dispositifs d’interception chez les principaux FAI français ; quand vous accédez à un site en SSL, une écoute numérique, même chez le FAI, ne suffit pas à lire en clair les communications, et même pas les URL que vous consultez. Pour cela, il vous faut la clé privée du site. Cet article indique donc que si vous hébergez des sites en SSL, vous devez fournir sur demande administrative vos clés privées. Je ne sais pas pour vous, mais une fois que ma clé privée est compromise, je la change – et ça me coûte, en temps et en régénération de certificats.

Là où ça devient compliqué à gérer pour nous hébergeurs, c’est que les données collectées ont bien un délai de conservation, mais celui-ci court à partir de la date de décryptage (article L822-2 du nouveau code de la sécurité intérieure). Ce qui veut dire qu’on peut tout à fait venir vous demander de fournir sans délai (article 6 de la loi) vos clés privées d’il y a 20 ans ! Nous allons donc devoir stocker nos clés privées ad vitam aeternam.

Que penser de ces mesures ?

Je ne me prononcerai que sur les écoutes numériques en masse, les écoutes ciblées de personnes connues n’étant pas de ma compétence. Le principe est d’analyser l’historique de navigation et les textes échangés pour tenter de déterminer un comportement potentiel voire des idées partagées. Dans ce type de traitement, vous avez deux risques : rater un positif (risque alpha) et détecter un négatif (risque bêta). Si vous ratez trop de positif, votre système ne sert à rien ; et de manière un peu moins évidente, si vous détectez trop de négatifs, votre système ne sert à rien non plus, puisque vous perdez votre temps à courir après des chimères. De plus, dans le cas présent, les faux négatifs ont des conséquences très graves pour les personnes concernées.

Ce type de systèmes peut analyser soit des données fortement structurées, par exemple une saisie parmi une liste de valeurs possibles, soit des données faiblement structurées, par exemple de l’analyse de langage naturel. Evidemment, lorsque des données structurées sont disponibles, cela simplifie le travail de classement ; malheureusement, il est peu probable que des sites hébergés en France se caractérisent de façon univoque comme terroristes. Plus probablement, le travail se fera sur du langage naturel, et là les faux positifs seront nombreux.

Nous pourrons compter également comme faux positifs des personnes recherchant ou enquêtant sur ces sujets et qui ne consulteront les sites que pour s’informer et pas pour militer.

Enfin, les faux positifs, ça se fabrique, ça s’appelle du bombing : on crée une page web tout à fait inoffensive à l’écran mais contenant textuellement des éléments qu’on sait être détectés par les systèmes automatiques de façon à écraser le système par un trop plein de données.

Au final, il me semble que le risque important de faux positifs combiné à la gravité d’une erreur justifie les peurs que de nombreux hébergeurs, dont nous, ont exprimées. On m’objectera qu’aujourd’hui cette mesure est limitée à l’antiterrorisme, mais d’une part, la définition française du terrorisme est assez large, et donc justifie d’ores et déjà beaucoup d’écoutes, et d’autre part, le législateur malin connait bien la fable de la grenouille : on commence doucement, dans l’eau froide, et on chauffe petit à petit. Vous souvenez-vous que la CRDS devait s’arrêter en 2014 ? Que la CSG a commencé à 1,1 % pour en être maintenant à 7,5 % ? Parier qu’une loi d’exception finira par être supprimée ou qu’elle ne sera jamais étendue est bien risqué, surtout quand elle touche aux libertés les plus fondamentales.

Faut-il avoir peur des intelligences artificielles ?

Plusieurs figures éminentes de la technologie et de la science ont récemment exprimé des inquiétudes vis-à-vis du développement des intelligences artificielles : Elon Musk, cofondateur de Paypal et fondateur de Tesla Motors et SpaceX, a été le plus théâtral en parlant « d’invoquer le démon » et que les intelligences artificielles seraient « plus dangereuses que les armes nucléaires », suivi de près par l’astrophysicien Stephen Hawking qui a déclaré qu’elles pourraient « sonner le glas de l’humanité » car elles évolueraient plus rapidement que les êtres biologiques, et d’une certaine manière, Bill Gates, fondateur de Microsoft, plus mesuré, qui a estimé que « dans quelques dizaines d’années, elles pourraient devenir un problème ». Cette poussée de fièvre subite me semble très prématurée, et probablement assise sur une incompréhension de ce qu’est une intelligence artificielle et de l’état de l’art en la matière, ce que je vais tenter de démontrer ici.

Définition

Il n’est pas aisé de définir ce qu’est une intelligence artificielle ; pour preuve, dans sa déclaration, Bill Gates parle des problèmes que pourraient poser une « superintelligence » par opposition aux intelligences dont nous disposerions aujourd’hui. De plus, le terme est une locution qui conjugue deux mots ayant eux-mêmes des sens ambigus. Commençons par la notion d’artificialité.

Fidèle à moi-même, je ne relie pas l’artificialité au fait que l’entité concernée soit un ordinateur dans son acception commune, mais à l’origine de cette entité : dans la suite de cet article, par artificiel, j’entendrai construit par l’homme. Ce choix est moins anodin et évident qu’il n’y parait : en effet, ainsi défini, un être biologique – au sens de forme de vie basée sur la chimie du carbone – créé par des humains et accédant à l’intelligence serait aussi artificiel qu’un calculateur. Pourquoi se restreindre au silicium et au cuivre dans notre ambition démiurgique ? Une objection valide à ma définition est qu’il n’y aurait pas de différence fondamentale entre un être biologique créé en laboratoire et un être biologique nés de processus naturels.

Le terme d’intelligence est encore plus difficile à définir. Pour ce faire, je vais considérer la notion d’intelligence tel qu’un humain l’entend, c’est-à-dire une entité capable de comportements d’une certaine complexité.

Bien qu’une définition négative ne puisse être totalement satisfaisante, je commencerai par des exemples de ce qui n’est pas, pour moi, une intelligence. Les systèmes d’informatique d’entreprise que nous construisons chez Yoocan, qui appliquent à des données pour la plupart structurées des règles fixes définies par des humains, suivant des processus modélisables mathématiquement sous forme d’algorithme, ne sont pas une forme d’intelligence. De même, une machine industrielle comme un robot soudeur répétant inlassablement les mêmes actions suivant un rythme fixe n’est pas une forme d’intelligence.

De ces deux exemples, je peux tirer une première caractéristique d’une entité intelligente : son comportement ne doit pas être fixe ; elle doit donc être capable de modifier celui-ci en fonction des circonstances qu’elle rencontre, en d’autres termes, elle doit être capable d’apprendre.

La capacité à apprendre est au cœur de nombreux systèmes informatiques cherchant à rapprocher les machines des humains : pour prendre un exemple que je connais bien de par mon stage ingénieur au Japon chez ATR, les systèmes de reconnaissance de la parole apprennent des exemples de correspondance onde sonore / phonème qu’on leur fournit en usine ; ils sont ensuite capables de raffiner leur approche une fois mis en production par les corrections par des êtres humains des erreurs qu’ils commettraient. Cela rend-il pour autant un ordinateur muni d’un logiciel de reconnaissance de la parole intelligent ? Je ne sais pas pour vous, mais certainement pas pour moi ; il ne remplit qu’une seule tâche que l’on pourrait qualifier d’intelligente, et cette tâche ne lui permet que de nous restituer ce que nous lui avons donné comme information.

De cette limitation, je peux tirer une deuxième caractéristique d’une entité intelligente : elle doit créer du sens de ce qui l’entoure ; pour être plus précis, elle doit être capable, à partir de ses capacités sensorielles, de se construire une vision de ce qui n’est pas elle afin d’interagir avec.

Un bon exemple de cette caractéristique est le fonctionnement des robots aspirateurs ; afin de traiter toute la pièce où ils se trouvent, ils s’en construisent un plan mental avec ses bordures et ses zones déjà visitées. Je ne l’ai volontairement pas précisé pour les systèmes de reconnaissance de la parole, mais ils ne se limitent pas à l’analyse des ondes sonores ; ils tentent de découper les mots, d’en déduire les phrases, y compris leur sens et la fonction des mots, afin de valider la reconnaissance audio par la probabilité que la suite de phonèmes veuille vraiment dire quelque chose dans la langue cible. Cela fait-il d’un robot aspirateur une entité intelligente ? Pour moi, toujours pas ; il lui manque la capacité à affirmer et partager sa vision de ce qui l’entoure et de faire des choix.

De cette objection, je peux tirer la troisième et plus fuyante caractéristique d’une entité intelligente : elle doit pouvoir dire « je » ; en d’autres termes, avoir conscience d’elle-même, de son unicité et de sa capacité à analyser et agir sur son environnement, en affirmant son identité et une forme de volonté.

Autant que nous sachions, nous n’avons pas encore créé d’entité artificielle qui possède cette caractéristique ; pire, malgré plusieurs milliers d’années de réflexion philosophique et scientifique sur la question, nous ne savons pas d’où vient cette capacité que nous prêtons aux êtres biologiques.

Pour cet article, je définirai donc une intelligence artificielle comme une entité créée par l’homme capable d’apprendre, de se créer une vision de son environnement, de partager cette vision et de choisir par elle-même comment elle va agir.

Un peu d’histoire

Si on admet mon acception de l’intelligence artificielle, l’idée n’est pas née avec l’informatique au XXème siècle ; de nombreux mythes antiques y font référence – les automates d’Héphaïstos par exemple – de grands intellectuels de la Renaissance et de l’époque classique ont travaillé dessus – comme Léonard de Vinci ou Descartes – et des œuvres littéraires majeures en ont fait un thème majeur – comme Frankenstein ou le Prométhée moderne de Mary Shelley.

Au XXème siècle, l’idée d’une intelligence artificielle a préoccupé les informaticiens dès les prémices de la discipline ; Alan Turing lui-même, dès 1950, s’intéressait déjà à la question. Il a défini le célèbre « test de Turing », dans lequel on caractérise une intelligence comme une entité capable de communiquer avec un être humain sans que celui-ci puisse deviner qu’il ne parle pas avec un autre être humain. Tout en n’étant pas complètement satisfaisant pour détecter une intelligence, ce test reste non résolu à ce jour.

Aujourd’hui, brique par brique, nous construisons des outils capables d’appréhender leur environnement – comme les robots dont j’ai déjà parlé – de raisonner sur des problèmes précis et de communiquer naturellement avec des êtres humains.

Où en sommes-nous ?

Pour revenir à la déclaration de Bill Gates, on distingue classiquement deux niveaux d’intelligence : l’intelligence faible, qui correspond à celle des robots à spectre limité comme les robots aspirateurs, des systèmes expert ou des analyseurs big data et l’intelligence forte, qui correspond à ma définition.

Nous avons bien progressé sur l’intelligence faible : de nombreuses tâches unitaires ont atteint une bonne qualité de traitement – la reconnaissance de la parole, la vocalisation, l’appréhension et la création de modèle de l’environnement physique – et des applications avancées comme grand public réellement intéressantes sont disponibles. En particulier, de plus en plus de tâches répétitives, qui généralement rebutent les humains, peuvent être laissées à des machines. D’ailleurs, la mécanisation de ces tâches me paraît une des grandes victoires de l’informatique, j’y reviendrai certainement dans un autre article.

Un autre cas où les intelligences artificielles pourraient apporter beaucoup est l’intervention en milieu hostile – sous-entendu hostile pour l’être humain : irradiation, environnement extraterrestre ou absence d’air respirable, hautes pressions comme dans les hauts fonds marins, etc. Ces cas sont particulièrement intéressants car plus que de décharger les humains de tâches ingrates, ils correspondent à des situations où l’être humain ne peut pas intervenir du tout. Force est de constater que les systèmes actuellement en production ont une intelligence très limitée – en particulier une intelligence adaptative proche de zéro – et ont des périmètres d’intervention très restreints. Deux exemples concrets :

  • la sonde Rosetta : en simplifiant son fonctionnement, on lui demande de se placer sur telle ou telle orbite autour de la comète 67P pour procéder à des analyses ; afin de s’assurer que sa course est toujours correcte, elle calcule régulièrement sa position dans l’espace par triangulation avec trois étoiles lointaines ayant des spectres lumineux bien définis. Récemment, un incident est survenu, car la comète se rapprochant du soleil, elle a commencé à perdre de la matière que la sonde a prise pour une de ses étoiles de guidage ; conçue très robustement, la sonde s’est éloignée de la comète en se basant sur la position calculée antérieurement, et a passé la main aux ingénieurs au sol pour déterminer la suite. Bravo aux ingénieurs ayant conçu la sonde, mais on est loin des capacités d’un pilote humain
  • la centrale de Fukushima : un robot a été lancé mi-avril pour évaluer certains dégâts en zone fortement irradiée ; il n’avait cependant que peu d’indépendance de manipulateurs humains, s’est coincé dans un conduit, n’a pas réussi à se débloquer, et a donc fini par cesser de fonctionner à cause des radiations qui, comme on le sait, attaquent également les circuits électroniques.

Enfin, beaucoup de fantasmes entourent les systèmes d’analyse de données des géants du web comme Google ou Facebook qui seraient capables de modéliser les comportements humains. Il suffit pour se rasséréner de voir les applications concrètes qui en sont faites :

  • les publicités supposément ciblées mais qui manquent régulièrement leur cible, que ce soit par manque d’information – on vous propose pendant des mois des ventes de portable hybride car on a détecté une recherche sur un site partenaire, mais on a raté votre acte d’achat sur un site qui n’est pas partenaire – ou par manque de finesse d’analyse – sous prétexte que vous passez par hasard sur une page de vente de parapluie en vous trompant de lien, on vous propose à nouveau pendant des mois des parapluies
  • les propositions d’articles liés : au mieux – en terme d’intelligence artificielle, la présence de vocables proches déclenche l’affichage, mais le résultat est rarement pertinent ; au pire, les titres sont uniquement construits par des humains de façon à attirer le chaland, comme les « tops n », les photos bien choisies ou les citations croustillantes sorties de leur contexte, ce qui n’a rien d’artificiel, et pas grand chose d’intelligent !

Le point commun de tous ces exemples d’intelligence limitée ? Ces outils sont créés à l’aide d’algorithmes « classiques » dont le cheminement est entièrement décidé par un être humain, avec une capacité d’apprentissage – ou dans ce cas plus précisément d’auto-paramétrage – limitée. Les pistes les plus prometteuses en terme d’acquisition d’une forme d’intelligence par une machine se trouvent plutôt dans la construction de simili cerveaux génériques capables d’apprendre d’eux-mêmes, mais c’est un domaine encore balbutiant (voir les liens en fin d’article pour des détails sur la question).

Alors, à quand Skynet, Puppet Master et autre Omnius ?

Quand on remarque que l’intelligence artificielle est un objet de recherche constant depuis près de soixante dix ans, et que malgré cela, nous n’avons que des résultats très partiels et aucune perspective proche d’unification de ces résultats dans une entité complète, je pense qu’on peut affirmer que la création d’une intelligence artificielle est encore très lointaine et incertaine.

Par ailleurs, je rejoins Bill Gates sur le fait que l’intelligence que nous exploitons actuellement, l’intelligence faible, ne pose aucun problème même à long terme ; le domaine d’intervention de la machine est limité par nos choix, ainsi que sa capacité d’apprentissage, d’appréhension du réel et d’action sur le réel.

Une autre idée, dont je n’ai pas parlé car elle se situe à la frontière de l’artificialité, et qui apparaît dans l’excellent film Ghost in the shell, est la possibilité que l’intelligence apparaisse d’elle-même par combinaison d’entités simples que nous aurions créées. Elle me semble extrêmement peu probable, car d’une part elle suppose que nous ayons doté ces entités disparates de capacités de communication qui leur permette de constituer une entité supérieure par agrégation, et d’autre part, je ne vois pas quel processus amènerait un œil, une oreille, un nez, une bouche, etc. à se rassembler pour donner un être humain synthétique.

Enfin, la piste sérieuse d’apparition d’une intelligence artificielle, la création d’une copie d’un cerveau biologique couplée à un ensemble de dispositifs mécaniques et sensoriels, est d’une part une perspective très lointaine – comme vous pouvez le voir dans la première vidéo ci-dessous – et d’autre part me paraît contradictoire avec l’argument a priori valide apporté par Stephen Hawking que l’évolution d’une machine à base d’ordinateur se ferait à une vitesse nettement supérieure à celle d’un être biologique ; en effet, les mécanismes d’apprentissage sont les mêmes que ceux d’un être humain, et bien que les ordinateurs personnels actuellement à notre disposition possèdent grosso modo la même capacité de traitement théorique que notre cerveau (cf http://fr.wikipedia.org/wiki/Intelligence_artificielle#Estimation_de_faisabilit.C3.A9), on constate que la phase d’apprentissage n’est pas sensiblement plus rapide. Il se pourrait bien que nous soyons un dispositif particulièrement performants pour l’intelligence. Darwin 1 – Turing 0 ?

Le danger

Quand bien même nous serions à deux doigts sans le savoir de créer une intelligence artificielle forte, serait-elle réellement un danger pour l’humanité ? Si on se fie à l’art, on serait tenté de répondre un oui tonitruant : Frankenstein, 2001 odyssée de l’espace, Blade Runner, Terminator, le cycle de Dune, rares sont les exemples imaginaires de conséquences positives, et même la saga des robots d’Asimov qui institue des règles supposées protéger l’humanité, imposées Dieu seul sait comment aux robots, donne des exemples de contournement de ces règles. Dans une certaine mesure, la planète des singes offre un autre exemple de l’apparition d’une intelligence du même niveau que la nôtre et ayant des conséquences funestes, même si cette intelligence n’est pas artificielle.

Il est vrai que l’évolution darwinienne et la biologie nous enseignent que toute vie n’a pour but que de se multiplier, et que seules les circonstances et les limites des outils à sa disposition l’en empêchent ; l’homme, qui avec son intelligence a des moyens inégalables dans le monde animal pour soumettre son environnement à ses besoins, ne voit guère sa croissance menacée que par lui-même. Mais cette éventuelle intelligence – artificielle et née dans des circonstances différentes de la nôtre – aurait-elle nécessairement cette pulsion incontrôlable à l’expansion et à la domination ? Ces peurs ne seraient-elles pas qu’un énième avatar du récent détournement occidental des valeurs du siècle des lumières, progrès scientifique entraînant progrès technique entraînant progrès social, qui nous fait douter que le moindre progrès technologique puisse être positif ? Ne diraient-elles pas plus de choses sur nous-mêmes que sur les machines pensantes elles-mêmes ?

Pour aller plus loin

Deux conférences passionnantes sur les robots, à regarder dans l’ordre ci-dessous :

  • https://www.youtube.com/watch?v=giqEnlM8D_U : vidéo des rencontres sciences et humanisme 2014, traitant de façon générale la robotique et l’intelligence artificielle, avec des démonstrations de robots faisant de l’auto-apprentissage
  • https://www.youtube.com/watch?v=a6-9n-K2LYc : vidéo de l’espace des sciences de Rennes sur la robotique non humanoïde

Quelques livres :

  • de manière générale, l’oeuvre de Philip K. Dick, qui a passé sa vie à s’interroger ce qui nous pouvait différencier un humain d’une intelligence artificielle
  • le cycle de Dune de Franck Herbert, avec ses mentats et Omnius
  • La cité des permutants de Greg Egan : je trouve l’écriture de Greg Egan parfois indigeste, mais ses idées sont toujours dérangeantes ; dans ce livre, il imagine un système de simulation d’êtres humains physiquement morts, et pour éviter la stagnation et l’ennui dans cette vie éternelle, il embarque des extraterrestres évoluant indépendamment des humains simulés
  • La bionique – Quand la science imite la nature d’Agnès Guillot et Jean-Arcady Meyer, ou quand l’artificiel s’inspire de la nature

  • La conscience a-t-elle une origine ? Des neurosciences à la pleine conscience : une nouvelle approche de l’esprit de Michel Bitbol, qui aborde la question de la formation de la conscience

L’informatique est-elle une science ?

Quelques définitions

Par science, on entend domaine de la connaissance, à différencier de la technologie, qui traite des outils et des techniques ; je parlerai donc ici de l’informatique comme domaine de connaissance, pas comme ensemble de pratiques et de techniques.

Pour caractériser une science, il faut déterminer son objet d’étude, sa méthodologie et la façon dont elle prouve ses résultats. Aussi ancienne que soit la science, répondre à cette question n’est jamais trivial. La physique est supposée comprendre et modéliser les phénomènes naturels, mais cette définition est tellement large qu’elle pourrait englober la chimie et la biologie ; cette dernière est supposée étudier le vivant, mais nous n’avons pas aujourd’hui de définition satisfaisante de ce qu’est la vie, et ainsi de suite. Y répondre pour l’informatique est tout aussi difficile.

L’objet d’étude

Trois objets sont susceptibles d’être l’objet de l’informatique : les algorithmes, les ordinateurs et les informations.

Le terme d’algorithme a gagné en popularité dans le grand public ces dernières années : il représente symboliquement la puissance de Google, les risques réels ou supposés des réseaux sociaux et du big data, voire plus récemment de l’intrusion de l’Etat dans les communications électroniques. Il possède une certaine charge magique qui ferait de nous informaticiens des égaux de Newton ou Einstein avec leurs lois universelles, génies aux pouvoirs mystérieux et absolus. Plus prosaïquement, un algorithme n’est guère plus qu’une recette de cuisine pour transformer un jeu de données entrant en un jeu de données sortant ; en tant que tel, son étude peut être passionnante, et d’une incroyable difficulté technique et conceptuelle – ceux qui auront tenté de démontrer qu’il n’existe pas d’algorithme de tri plus rapide que le quick sort sauront de quoi je parle. Mais aussi fondamentaux qu’ils soient en informatique, les algorithmes sont nés bien avant elle, et sont étudiés depuis bien longtemps par une branche des mathématiques, l’algorithmique ; leur formalisme et leur étude en empruntent toutes les caractéristiques. Ils ne peuvent être l’objet unique de la science informatique.

L’objet ordinateur a l’avantage d’être apparu peu ou prou en même temps que l’informatique. Celle-ci serait dans ce cas la science étudiant l’ordinateur en tant que dispositif de traitement automatisé des données – notez l’utilisation du terme données et pas du terme information, on va y venir – pour résumer, l’étude des machines de Turing. Comme l’indique le sous-titre de ce blog, je ne suis pas partisan de définir l’informatique par l’outil ordinateur : d’une part, cela tend à la réduire à un ensemble de technologies, or nous essayons de la définir en tant que science, et d’autre part, en elle-même, sans algorithme, sans les données introduites et les données attendues en sortie, la machine est inerte.

L’information est à différencier de la donnée en ce qu’elle regroupe deux réalités : les données proprement dites, et leur mise en forme. La donnée est objective, c’est elle que traite la machine ordinateur ; l’information est subjective en ce que la mise en forme des données est interprétée humainement. Pour comprendre la différence, il suffit de penser par exemple aux sondages : le nombre de personnes choisissant une réponse à une question est une donnée ; ce que ce nombre dit de la réalité de la population sondée est une information, sujette à l’interprétation du sens de la question, du sens de la réponse dans le cadre de la question, de la situation du répondant quand on lui pose la question, etc. Telle que définie ici, elle est un objet d’étude original qu’aucune autre science n’aborde centralement : la linguistique étudie les messages exprimés dans les langues humaines, mais par définition tend à ignorer l’objectivité de la donnée sous-jacente qui dans son domaine est une illusion ; les mathématiques jouent avec les données, mais ne s’intéressent pas au sens subjectif que les humains leur affectent. De plus, la dualité donnée objective – interprétation humaine subjective représente bien la problématique rencontrée en permanence par les informaticiens qui est d’optimiser un processus existant à l’aide des ordinateurs – voire sans parfois.

C’est pourquoi, si je devais définir un objet unique d’étude de l’informatique, ce serait l’information ; raison également pour laquelle j’apprécie particulièrement le mot français informatique, quand les américains parlent plutôt de computer science  – un reflet de leur culture utilitariste ?

Méthodologie et preuve

Malgré les bons arguments que l’on peut donner pour affirmer que l’objet de l’informatique est l’étude des informations, dès qu’on se penche sur la méthodologie informatique et sa façon de prouver la pertinence de ses résultats, les algorithmes et les machines reviennent en force.

En effet, il s’agit ici de démontrer qu’un traitement de l’information est conforme formellement aux demandes exprimées initialement par des humains. Ces demandes peuvent revêtir plusieurs formes : que les informations en sortie correspondent bien aux entrées et aux traitements demandés, ce qui fait appel à l’algorithmique ; que les traitements respectent des impératifs de rapidité, ce qui fait appel à l’expérimentation sur les machines. La qualité des traitements ne peut pas toujours se passer de l’interprétation humaine – d’aucuns dirait rarement – or si on savait modéliser correctement un humain, ça se saurait ; on peut prendre l’exemple de la vallée de l’étrange pour les robots où le ressenti humain est le cœur de la recherche. Dans ces cas, l’expérimentation sur des machines physiques est indispensable et l’ingrédient humain rend la preuve formelle difficile voire impossible.

La spécificité de la méthodologie informatique est de combiner les outils algorithmiques et les preuves empiriques par déploiement des traitements sur des machines physiques en une approche commune.

En conclusion, je pense que l’informatique traite un sujet original avec une approche elle aussi fondamentalement originale ; les objections légitimes à ce fait sont applicables à toutes les sciences du réel – la Physique moderne n’existerait pas sans les mathématiques, la Biologie s’appuie sur la Chimie, la Chimie sur la Physique, etc. Gageons qu’en mûrissant – 70 ans est très jeune pour une science, la plupart des concepts scientifiques mettent plus d’un siècle à percer dans la société civile – son objet et ses méthodes se cristalliseront de façon incontestable.