Plusieurs figures éminentes de la technologie et de la science ont récemment exprimé des inquiétudes vis-à-vis du développement des intelligences artificielles : Elon Musk, cofondateur de Paypal et fondateur de Tesla Motors et SpaceX, a été le plus théâtral en parlant « d’invoquer le démon » et que les intelligences artificielles seraient « plus dangereuses que les armes nucléaires », suivi de près par l’astrophysicien Stephen Hawking qui a déclaré qu’elles pourraient « sonner le glas de l’humanité » car elles évolueraient plus rapidement que les êtres biologiques, et d’une certaine manière, Bill Gates, fondateur de Microsoft, plus mesuré, qui a estimé que « dans quelques dizaines d’années, elles pourraient devenir un problème ». Cette poussée de fièvre subite me semble très prématurée, et probablement assise sur une incompréhension de ce qu’est une intelligence artificielle et de l’état de l’art en la matière, ce que je vais tenter de démontrer ici.
Définition
Il n’est pas aisé de définir ce qu’est une intelligence artificielle ; pour preuve, dans sa déclaration, Bill Gates parle des problèmes que pourraient poser une « superintelligence » par opposition aux intelligences dont nous disposerions aujourd’hui. De plus, le terme est une locution qui conjugue deux mots ayant eux-mêmes des sens ambigus. Commençons par la notion d’artificialité.
Fidèle à moi-même, je ne relie pas l’artificialité au fait que l’entité concernée soit un ordinateur dans son acception commune, mais à l’origine de cette entité : dans la suite de cet article, par artificiel, j’entendrai construit par l’homme. Ce choix est moins anodin et évident qu’il n’y parait : en effet, ainsi défini, un être biologique – au sens de forme de vie basée sur la chimie du carbone – créé par des humains et accédant à l’intelligence serait aussi artificiel qu’un calculateur. Pourquoi se restreindre au silicium et au cuivre dans notre ambition démiurgique ? Une objection valide à ma définition est qu’il n’y aurait pas de différence fondamentale entre un être biologique créé en laboratoire et un être biologique nés de processus naturels.
Le terme d’intelligence est encore plus difficile à définir. Pour ce faire, je vais considérer la notion d’intelligence tel qu’un humain l’entend, c’est-à-dire une entité capable de comportements d’une certaine complexité.
Bien qu’une définition négative ne puisse être totalement satisfaisante, je commencerai par des exemples de ce qui n’est pas, pour moi, une intelligence. Les systèmes d’informatique d’entreprise que nous construisons chez Yoocan, qui appliquent à des données pour la plupart structurées des règles fixes définies par des humains, suivant des processus modélisables mathématiquement sous forme d’algorithme, ne sont pas une forme d’intelligence. De même, une machine industrielle comme un robot soudeur répétant inlassablement les mêmes actions suivant un rythme fixe n’est pas une forme d’intelligence.
De ces deux exemples, je peux tirer une première caractéristique d’une entité intelligente : son comportement ne doit pas être fixe ; elle doit donc être capable de modifier celui-ci en fonction des circonstances qu’elle rencontre, en d’autres termes, elle doit être capable d’apprendre.
La capacité à apprendre est au cœur de nombreux systèmes informatiques cherchant à rapprocher les machines des humains : pour prendre un exemple que je connais bien de par mon stage ingénieur au Japon chez ATR, les systèmes de reconnaissance de la parole apprennent des exemples de correspondance onde sonore / phonème qu’on leur fournit en usine ; ils sont ensuite capables de raffiner leur approche une fois mis en production par les corrections par des êtres humains des erreurs qu’ils commettraient. Cela rend-il pour autant un ordinateur muni d’un logiciel de reconnaissance de la parole intelligent ? Je ne sais pas pour vous, mais certainement pas pour moi ; il ne remplit qu’une seule tâche que l’on pourrait qualifier d’intelligente, et cette tâche ne lui permet que de nous restituer ce que nous lui avons donné comme information.
De cette limitation, je peux tirer une deuxième caractéristique d’une entité intelligente : elle doit créer du sens de ce qui l’entoure ; pour être plus précis, elle doit être capable, à partir de ses capacités sensorielles, de se construire une vision de ce qui n’est pas elle afin d’interagir avec.
Un bon exemple de cette caractéristique est le fonctionnement des robots aspirateurs ; afin de traiter toute la pièce où ils se trouvent, ils s’en construisent un plan mental avec ses bordures et ses zones déjà visitées. Je ne l’ai volontairement pas précisé pour les systèmes de reconnaissance de la parole, mais ils ne se limitent pas à l’analyse des ondes sonores ; ils tentent de découper les mots, d’en déduire les phrases, y compris leur sens et la fonction des mots, afin de valider la reconnaissance audio par la probabilité que la suite de phonèmes veuille vraiment dire quelque chose dans la langue cible. Cela fait-il d’un robot aspirateur une entité intelligente ? Pour moi, toujours pas ; il lui manque la capacité à affirmer et partager sa vision de ce qui l’entoure et de faire des choix.
De cette objection, je peux tirer la troisième et plus fuyante caractéristique d’une entité intelligente : elle doit pouvoir dire « je » ; en d’autres termes, avoir conscience d’elle-même, de son unicité et de sa capacité à analyser et agir sur son environnement, en affirmant son identité et une forme de volonté.
Autant que nous sachions, nous n’avons pas encore créé d’entité artificielle qui possède cette caractéristique ; pire, malgré plusieurs milliers d’années de réflexion philosophique et scientifique sur la question, nous ne savons pas d’où vient cette capacité que nous prêtons aux êtres biologiques.
Pour cet article, je définirai donc une intelligence artificielle comme une entité créée par l’homme capable d’apprendre, de se créer une vision de son environnement, de partager cette vision et de choisir par elle-même comment elle va agir.
Un peu d’histoire
Si on admet mon acception de l’intelligence artificielle, l’idée n’est pas née avec l’informatique au XXème siècle ; de nombreux mythes antiques y font référence – les automates d’Héphaïstos par exemple – de grands intellectuels de la Renaissance et de l’époque classique ont travaillé dessus – comme Léonard de Vinci ou Descartes – et des œuvres littéraires majeures en ont fait un thème majeur – comme Frankenstein ou le Prométhée moderne de Mary Shelley.
Au XXème siècle, l’idée d’une intelligence artificielle a préoccupé les informaticiens dès les prémices de la discipline ; Alan Turing lui-même, dès 1950, s’intéressait déjà à la question. Il a défini le célèbre « test de Turing », dans lequel on caractérise une intelligence comme une entité capable de communiquer avec un être humain sans que celui-ci puisse deviner qu’il ne parle pas avec un autre être humain. Tout en n’étant pas complètement satisfaisant pour détecter une intelligence, ce test reste non résolu à ce jour.
Aujourd’hui, brique par brique, nous construisons des outils capables d’appréhender leur environnement – comme les robots dont j’ai déjà parlé – de raisonner sur des problèmes précis et de communiquer naturellement avec des êtres humains.
Où en sommes-nous ?
Pour revenir à la déclaration de Bill Gates, on distingue classiquement deux niveaux d’intelligence : l’intelligence faible, qui correspond à celle des robots à spectre limité comme les robots aspirateurs, des systèmes expert ou des analyseurs big data et l’intelligence forte, qui correspond à ma définition.
Nous avons bien progressé sur l’intelligence faible : de nombreuses tâches unitaires ont atteint une bonne qualité de traitement – la reconnaissance de la parole, la vocalisation, l’appréhension et la création de modèle de l’environnement physique – et des applications avancées comme grand public réellement intéressantes sont disponibles. En particulier, de plus en plus de tâches répétitives, qui généralement rebutent les humains, peuvent être laissées à des machines. D’ailleurs, la mécanisation de ces tâches me paraît une des grandes victoires de l’informatique, j’y reviendrai certainement dans un autre article.
Un autre cas où les intelligences artificielles pourraient apporter beaucoup est l’intervention en milieu hostile – sous-entendu hostile pour l’être humain : irradiation, environnement extraterrestre ou absence d’air respirable, hautes pressions comme dans les hauts fonds marins, etc. Ces cas sont particulièrement intéressants car plus que de décharger les humains de tâches ingrates, ils correspondent à des situations où l’être humain ne peut pas intervenir du tout. Force est de constater que les systèmes actuellement en production ont une intelligence très limitée – en particulier une intelligence adaptative proche de zéro – et ont des périmètres d’intervention très restreints. Deux exemples concrets :
- la sonde Rosetta : en simplifiant son fonctionnement, on lui demande de se placer sur telle ou telle orbite autour de la comète 67P pour procéder à des analyses ; afin de s’assurer que sa course est toujours correcte, elle calcule régulièrement sa position dans l’espace par triangulation avec trois étoiles lointaines ayant des spectres lumineux bien définis. Récemment, un incident est survenu, car la comète se rapprochant du soleil, elle a commencé à perdre de la matière que la sonde a prise pour une de ses étoiles de guidage ; conçue très robustement, la sonde s’est éloignée de la comète en se basant sur la position calculée antérieurement, et a passé la main aux ingénieurs au sol pour déterminer la suite. Bravo aux ingénieurs ayant conçu la sonde, mais on est loin des capacités d’un pilote humain
- la centrale de Fukushima : un robot a été lancé mi-avril pour évaluer certains dégâts en zone fortement irradiée ; il n’avait cependant que peu d’indépendance de manipulateurs humains, s’est coincé dans un conduit, n’a pas réussi à se débloquer, et a donc fini par cesser de fonctionner à cause des radiations qui, comme on le sait, attaquent également les circuits électroniques.
Enfin, beaucoup de fantasmes entourent les systèmes d’analyse de données des géants du web comme Google ou Facebook qui seraient capables de modéliser les comportements humains. Il suffit pour se rasséréner de voir les applications concrètes qui en sont faites :
- les publicités supposément ciblées mais qui manquent régulièrement leur cible, que ce soit par manque d’information – on vous propose pendant des mois des ventes de portable hybride car on a détecté une recherche sur un site partenaire, mais on a raté votre acte d’achat sur un site qui n’est pas partenaire – ou par manque de finesse d’analyse – sous prétexte que vous passez par hasard sur une page de vente de parapluie en vous trompant de lien, on vous propose à nouveau pendant des mois des parapluies
- les propositions d’articles liés : au mieux – en terme d’intelligence artificielle, la présence de vocables proches déclenche l’affichage, mais le résultat est rarement pertinent ; au pire, les titres sont uniquement construits par des humains de façon à attirer le chaland, comme les « tops n », les photos bien choisies ou les citations croustillantes sorties de leur contexte, ce qui n’a rien d’artificiel, et pas grand chose d’intelligent !
Le point commun de tous ces exemples d’intelligence limitée ? Ces outils sont créés à l’aide d’algorithmes « classiques » dont le cheminement est entièrement décidé par un être humain, avec une capacité d’apprentissage – ou dans ce cas plus précisément d’auto-paramétrage – limitée. Les pistes les plus prometteuses en terme d’acquisition d’une forme d’intelligence par une machine se trouvent plutôt dans la construction de simili cerveaux génériques capables d’apprendre d’eux-mêmes, mais c’est un domaine encore balbutiant (voir les liens en fin d’article pour des détails sur la question).
Alors, à quand Skynet, Puppet Master et autre Omnius ?
Quand on remarque que l’intelligence artificielle est un objet de recherche constant depuis près de soixante dix ans, et que malgré cela, nous n’avons que des résultats très partiels et aucune perspective proche d’unification de ces résultats dans une entité complète, je pense qu’on peut affirmer que la création d’une intelligence artificielle est encore très lointaine et incertaine.
Par ailleurs, je rejoins Bill Gates sur le fait que l’intelligence que nous exploitons actuellement, l’intelligence faible, ne pose aucun problème même à long terme ; le domaine d’intervention de la machine est limité par nos choix, ainsi que sa capacité d’apprentissage, d’appréhension du réel et d’action sur le réel.
Une autre idée, dont je n’ai pas parlé car elle se situe à la frontière de l’artificialité, et qui apparaît dans l’excellent film Ghost in the shell, est la possibilité que l’intelligence apparaisse d’elle-même par combinaison d’entités simples que nous aurions créées. Elle me semble extrêmement peu probable, car d’une part elle suppose que nous ayons doté ces entités disparates de capacités de communication qui leur permette de constituer une entité supérieure par agrégation, et d’autre part, je ne vois pas quel processus amènerait un œil, une oreille, un nez, une bouche, etc. à se rassembler pour donner un être humain synthétique.
Enfin, la piste sérieuse d’apparition d’une intelligence artificielle, la création d’une copie d’un cerveau biologique couplée à un ensemble de dispositifs mécaniques et sensoriels, est d’une part une perspective très lointaine – comme vous pouvez le voir dans la première vidéo ci-dessous – et d’autre part me paraît contradictoire avec l’argument a priori valide apporté par Stephen Hawking que l’évolution d’une machine à base d’ordinateur se ferait à une vitesse nettement supérieure à celle d’un être biologique ; en effet, les mécanismes d’apprentissage sont les mêmes que ceux d’un être humain, et bien que les ordinateurs personnels actuellement à notre disposition possèdent grosso modo la même capacité de traitement théorique que notre cerveau (cf http://fr.wikipedia.org/wiki/Intelligence_artificielle#Estimation_de_faisabilit.C3.A9), on constate que la phase d’apprentissage n’est pas sensiblement plus rapide. Il se pourrait bien que nous soyons un dispositif particulièrement performants pour l’intelligence. Darwin 1 – Turing 0 ?
Le danger
Quand bien même nous serions à deux doigts sans le savoir de créer une intelligence artificielle forte, serait-elle réellement un danger pour l’humanité ? Si on se fie à l’art, on serait tenté de répondre un oui tonitruant : Frankenstein, 2001 odyssée de l’espace, Blade Runner, Terminator, le cycle de Dune, rares sont les exemples imaginaires de conséquences positives, et même la saga des robots d’Asimov qui institue des règles supposées protéger l’humanité, imposées Dieu seul sait comment aux robots, donne des exemples de contournement de ces règles. Dans une certaine mesure, la planète des singes offre un autre exemple de l’apparition d’une intelligence du même niveau que la nôtre et ayant des conséquences funestes, même si cette intelligence n’est pas artificielle.
Il est vrai que l’évolution darwinienne et la biologie nous enseignent que toute vie n’a pour but que de se multiplier, et que seules les circonstances et les limites des outils à sa disposition l’en empêchent ; l’homme, qui avec son intelligence a des moyens inégalables dans le monde animal pour soumettre son environnement à ses besoins, ne voit guère sa croissance menacée que par lui-même. Mais cette éventuelle intelligence – artificielle et née dans des circonstances différentes de la nôtre – aurait-elle nécessairement cette pulsion incontrôlable à l’expansion et à la domination ? Ces peurs ne seraient-elles pas qu’un énième avatar du récent détournement occidental des valeurs du siècle des lumières, progrès scientifique entraînant progrès technique entraînant progrès social, qui nous fait douter que le moindre progrès technologique puisse être positif ? Ne diraient-elles pas plus de choses sur nous-mêmes que sur les machines pensantes elles-mêmes ?
Pour aller plus loin
Deux conférences passionnantes sur les robots, à regarder dans l’ordre ci-dessous :
- https://www.youtube.com/watch?v=giqEnlM8D_U : vidéo des rencontres sciences et humanisme 2014, traitant de façon générale la robotique et l’intelligence artificielle, avec des démonstrations de robots faisant de l’auto-apprentissage
- https://www.youtube.com/watch?v=a6-9n-K2LYc : vidéo de l’espace des sciences de Rennes sur la robotique non humanoïde
Quelques livres :
- de manière générale, l’oeuvre de Philip K. Dick, qui a passé sa vie à s’interroger ce qui nous pouvait différencier un humain d’une intelligence artificielle
- le cycle de Dune de Franck Herbert, avec ses mentats et Omnius
- La cité des permutants de Greg Egan : je trouve l’écriture de Greg Egan parfois indigeste, mais ses idées sont toujours dérangeantes ; dans ce livre, il imagine un système de simulation d’êtres humains physiquement morts, et pour éviter la stagnation et l’ennui dans cette vie éternelle, il embarque des extraterrestres évoluant indépendamment des humains simulés
-
La bionique – Quand la science imite la nature d’Agnès Guillot et Jean-Arcady Meyer, ou quand l’artificiel s’inspire de la nature
-
La conscience a-t-elle une origine ? Des neurosciences à la pleine conscience : une nouvelle approche de l’esprit de Michel Bitbol, qui aborde la question de la formation de la conscience