mardi 30 mai 2017

L'« intelligence artificielle » dans notre culture

L'« intelligence artificielle » se présente simultanément à l'intellect comme un existant, comme un possible et comme un imaginaire1. Or ce que l'on imagine n'est pas nécessairement possible et il n'est pas certain que ce qui est possible puisse exister un jour.

Le concept de l'« intelligence artificielle » fusionne par ailleurs « intelligence » et « artifice » (ce dernier mot désignant ici l'« informatique » ou l'« ordinateur ») et comme tout concept hybride celui-ci doit être examiné pour s'assurer qu'il ne s'agit pas d'une chimère comme le griffon dont la tête d'oiseau est entée sur le corps d'un lion, ou comme Pégase, le cheval ailé de la mythologie.

Le fait est que l'informatique accroît la portée de l'intelligence et de l'action humaines tout comme l'a fait bien avant elle la notation écrite de la parole, des nombres, de la musique et des mathématiques : l'ordinateur exécute des calculs et déclenche des actions avec une rapidité dont l'être humain est incapable. « Intelligence artificielle » n'est de ce point de vue rien d'autre qu'une expression quelque peu prétentieuse pour désigner l'informatique.
Le pilote automatique d'un avion de ligne reçoit les signaux des capteurs et manipule les ailerons afin de maintenir l'avion dans la position qui économise le carburant, action qui pour un pilote humain serait aussi difficile que de maintenir une assiette en équilibre sur la pointe d'une épingle : c'est un bon exemple de l'élargissement du possible qu'apporte l'informatique.
Alan Turing a cependant énoncé une autre ambition2 : concevoir une « machine qui pense » de telle sorte que l'on ne puisse pas distinguer ses résultats de ceux de la pensée d'un être humain. Or si l'on peut dire qu'un programme informatique « pense », puisqu'il traite les données qu'il ingère pour produire des résultats, il est évident qu'il ne pense pas comme nous. Avec les systèmes experts les informaticiens ont tenté de reproduire la façon dont nous raisonnons en suivant des règles3, mais ils ont rencontré des difficultés car nos règles changent avec la conjoncture et en outre certaines sont implicites.

Dans la réalité actuelle et pratique les applications de l'intelligence artificielle relèvent toutes de l'analyse discriminante4 quelle que soit la technique utilisée : il s'agit toujours de classer un être (personne, objet physique, mot, image, etc.) dans une nomenclature donnée a priori.

L'informatique transforme ainsi l'une des opérations les plus courantes, les plus quotidiennes de l'intelligence humaine en lui apportant précision et rapidité. Il en est résulté des conséquences (la victoire de l'« ordinateur » aux échecs, au jeu de Go, etc.) qui frappent l'imagination et l'invitent à extrapoler : des œuvres de fiction comme 2001, odyssée de l'espace l'y encouragent.

Une « machine qui pense comme un être humain » est-elle cependant possible ? On peut l'affirmer mais ce n'est pas une preuve car les réalisations actuelles de l'intelligence artificielle restent limitées en regard de l'ensemble des opérations de notre pensée. On peut le nier, mais ce n'est pas une preuve non plus car nous ignorons ce qui surviendra dans le futur. Entre possible et impossible le raisonnement ne peut donc pas décider : il doit se taire.

Certains postulent donc que l'« intelligence artificielle » pourra progresser non seulement de façon quantitative (rapidité et exactitude du classement), mais aussi de façon qualitative en dépassant ses frontières actuelles pour embrasser, outre le classement, l'ensemble des fonctions de l'intellect et notamment l'intuition et la créativité.

Une « chose qui pense » ?

Cela revient à affirmer la possibilité d'une « chose qui pense ». Une telle nouveauté doit éveiller l'attention du philosophe car elle rompt avec la distinction entre trois degrés parmi les êtres qui ont une consistance matérielle : les « choses » (par exemple les minéraux et les objets que l'on peut produire en les utilisant) ; les êtres vivants (plantes, animaux) ; enfin, parmi les êtres vivants, ceux qui peuvent penser (les êtres humains et certains autres animaux).

Une « chose qui pense » serait un être sans vie mais capable de penser : son existence est-elle concevable ?

Certaines cultures, adhèrant à l'animisme, accordent une pensée aux pierres, aux arbres, aux cours d'eau, aux choses en général : ce monde enchanté sollicite l'imagination. Il est facile d'imaginer des robots humanoïdes d'une intelligence supérieure à celle des humains. On en rencontre dans les romans d'anticipation mais aucune réalité n'approche aujourd'hui cet être imaginaire et l'hypothèse de sa possibilité future doit être discutée.

Il se peut que l'ordinateur soit dans le futur capable de se reproduire (c'est déjà le cas des virus informatiques5) mais la reproduction n'est pas la seule caractéristique du vivant. On dira aussi qu'avec les « réseaux neuronaux » (autre expression qui sollicite l'imagination) l'ordinateur est devenu capable d'apprendre et de se perfectionner, mais cet apprentissage ne concerne aujourd'hui que la qualité du classement.

On dira enfin que tandis que le cerveau humain évolue selon une unité de temps qui est la dizaine de milliers d'années la performance de l'informatique double tous les dix-huit mois, la loi de Moore devant être relayée dans quelques années par l'ordinateur quantique. On peut donc prévoir, prétend-on, que les capacités de l'informatique dépasseront dans tous les domaines celles de l'intelligence humaine : c'est ainsi que raisonne Raymond Kurzweil6.

Mais si l'« intelligence artificielle » est capable, comme nous le sommes, d'intuition, de créativité et de désir, elle voudra naturellement exercer le pouvoir absolu et elle y parviendra, puisqu'elle est supérieure à notre intelligence : les êtres humains seront alors ses esclaves. C'est là le « danger de l'intelligence artificielle7 » qu'évoquent Bill Gates, Stephen Hawking, Elon Musk, Steve Wozniak etc.

Homo informaticus

Le propos des praticiens de l'intelligence artificielle est beaucoup moins ambitieux que celui des journalistes, des écrivains de science-fiction et des hommes d'imagination, dont la pensée n'est pas soumise aux contraintes de la pratique.

L'expérience des praticiens nous enseigne que si l'informatique est capable de faire des choses qui sont hors de la portée de l'intelligence humaine, par exemple en analyse des données, elle est incapable de faire des choses qui sont à la portée d'un petit enfant. Le « jeu de l'imitation » proposé par Turing a incité les chercheurs à tenter de programmer l'« ordinateur » de telle sorte qu'il se comporte comme un être humain mais alors qu'il fait certaines choses beaucoup mieux que lui, il fait d'autres beaucoup moins bien :
« Fondamentalement, l’ordinateur et l’homme sont les deux opposés les plus intégraux qui existent. L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con » (Gérard Berry, professeur au Collège de France, dans Xavier de La Porte, « Grand entretien avec Gérard Berry », Rue89, 26 août 2016).
La piste la plus féconde n'est donc pas de contraindre l'« ordinateur » à imiter le comportement de l'être humain mais de faire émerger l'être nouveau, homo informaticus, qui résulte de leur symbiose.
« The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today » (Joseph Licklider, « Man Computer Symbiosis », IRE Transactions on Human Factors in Electronics, mars 1960).
Il apparaît alors que la formule du succès n'est pas l'informatisation ni l'automatisation intégrale, mais l'organisation d'une synergie des homo informaticus :
« The strongest chess player today is neither a human, nor a computer, but a human team using computers » (Devdatt Dubhashi et Shalom Lappin, « AI Dangers: Imagined and Real », Communications of the ACM, février 2017).
Les dangers véritables

Les véritables dangers de l'intelligence artificielle ne sont rien d'autre que les dangers qui accompagnent l'informatisation.

Les institutions s'informatisent, certes, mais de façon superficielle car nombre d'entre elles se refusent, de toute la force de leur inertie, à modifier leur organisation et à redéfinir leur mission dans un monde que l'informatisation a transformé. La symbiose de l'être humain et de l'ordinateur et la synergie des homo informaticus sont alors compromises par une automatisation mal conçue ou excessive.

Nombre d'entreprises ignorent « the inadequacy of "reason" unsupported by common sense » qu'a évoquée Alan Turing dans la dernière phrase de son dernier article8 : leur « système d'information » est utilisé non pour faciliter et enrichir le travail des êtres humains, mais pour les contraindre à suivre des procédures figées en niant ce que pourrait apporter leur bon sens.

L'autre danger est la tentation que la société rencontre après chaque révolution technique, celle de tirer parti des nouvelles ressources à des fins destructives. Tandis que la mécanique et la chimie ont permis de bombarder les villes, l'informatique peut être l'instrument efficace de manipulations perverses : elle a par exemple soumis la Banque à des tentations qui se sont révélées irrésistibles en lui donnant les moyens de parasiter le système productif.

Les prédateurs, plus vigilants et plus agiles que les autres, se servent de l'informatique pour s'enrichir et conquérir l'influence à tel point que l'on peut craindre un retour au régime féodal sous une forme ultra-moderne : les rapports sociaux redeviendraient alors de purs rapports de force.

Ces deux dangers sont présents et pressants. Les craintes fantasmatiques qui s'expriment à propos de l'« intelligence artificielle », et qui supposent réalisées des performances de science-fiction qu'elle n'atteindra peut-être jamais, désamorcent notre vigilance en la détournant de ces dangers immédiats et trop réels.
____
1 Etienne Gilson, L'Être et l'Essence, Vrin, 1949.
2 Alan Turing, « Computing Machinery and Intelligence », Mind, 1950.
3 Laurence Negrello, « Systèmes experts et intelligence artificielle », Cahier Technique Merlin Gerin, novembre 1991.
4 Michel Volle, Analyse des données, Economica, 1994, p. 206.
5 Eric Filiol, Les virus informatiques : théorie, pratique et applications, Springer, 2009.
6 Raymond Kurzweil, The Singularity is Near, Penguin, 2005.
7 Darlene Storm, « Steve Wozniak on AI: Will we be pets or mere ants to be squashed our robot overlords? », Computer World, 25 mars 2015.
8 Alan Turing, « Solvable and Unsolvable Problems », Science News, 1954.

17 commentaires:

  1. Une grande partie des techniques de l'IA sont effectivement des variantes non linéaires de l'analyse discriminante, donc une forme de classification supervisée (réseaux de neurones, machines à vecteurs de support, etc.)

    Cependant, l'IA aborde aussi un autre territoire, celui d'arbitrages fins (négociations) dans des situations où les données d'entrée sont des signaux continus et ne se ramenant pas nécessairement à des méthodes de classification. Il s'agit souvent de commandes motrices fines pour réagir à des environnements réels complexes, que l'on rencontre dans la robotique.

    Un bon exemple est celui d'une voiture autonome circulant sur une voie rapide et arrivant au niveau d'une bretelle d'insertion par laquelle quelques véhicules veulent s'insérer sur la voie.

    Une "négociation" fine s'ensuit entre les conducteurs, arbitrant en permanence entre le fait de laisser passer ou non les autres véhicules, pour aboutir à une insertion fluide.

    Les décisions se prennent en quelques millisecondes, sont réajustées et éventuellement modifiées en fonction du comportement des autres conducteurs, comme dans toute négociation.

    Je ne pense pas que la résolution de ce problème puisse se ramener à une classification. Bien sûr, un réseau de neurones sait répondre par un signal quantitatif en donnée de sortie et pas seulement par un label d'appartenance à une classe. L'apprentissage permettrait donc de lui faire produire des valeurs d'accélération, de freinage et de couples de direction à chaque instant.

    Un réseau de neurones peut également travailler à partir de données d'entrée continues, moyennant un effort d'encodage. Enfin le cas de l'insertion peut se modéliser comme un arbitrage entre trois décisions : celle de ralentir pour laisser passer, d'accélérer pour faire passer derrière soi, ou de changer de voie pour éviter l'obstacle.

    Il serait donc certainement possible de modéliser le cas de l'insertion sur autoroute par une classification entre ces trois décisions sur données d'entrée continues, avec production de données de sortie également continues, sous forme de commandes envoyées au véhicule.

    Je pense cependant que la seule classification échouerait dans ce cas, si on ne lui adjoint pas un modèle de prédiction des trajectoires sur lequel le véhicule autonome prendrait sa décision sur un horizon de quelques secondes et non à la milliseconde près.

    L'apprentissage brut obtenu en rentrant un très grand nombre de situations de conduite risque de ne pas comprendre la très grande variété des contextes entourant la scène, si l'on n'a pas élagué au préalable ces possibilités.

    Ceci va dans le sens de ce que vous décrivez sur l'association humains / machine dans le jeu d'échecs : dans le cas de la loi de décision de la voiture autonome, un modèle mathématique de prédiction de trajectoire, pensé par l'humain et sans aucun appel à l'IA, servirait d'armature autour de laquelle l'IA fournirait des ajustements fins.

    Je pense donc que l'IA dépassera les seuls problèmes de classification, mais ne pourra être efficace que si elle opère sur de bonnes idées et de bons modèles fournis par l'humain, par exemple sous forme de modèles mathématiques, lui indiquant quelles sont les variables pertinentes sur lesquelles agir. C'est la raison pour laquelle les bons professionnels de l'IA préconisent d'employer celle-ci avec parcimonie.

    Merci en tous les cas pour votre mise au point sur ce qu'il est raisonnable d'attendre ou non de l'IA.

    Marc Rameaux

    RépondreSupprimer
    Réponses
    1. Merci pour ce commentaire substantiel.
      On peut cependant associer un "score" à un classement et ce "score", étant une variable continue, peut servir à doser une décision. Cela me semble pouvoir répondre à votre objection.

      Supprimer
    2. Techniquement vous avez raison, c'est en introduisant une réponse quantitative continue en sortie - ce qu'un réseau de neurones sait faire - qu'il faudrait procéder.

      Mon point est que je ne suis pas sûr que cela suffise.

      Le "deep learning" permet d'apprendre à un réseau de neurones à jouer au Tetris sans rien lui expliquer, seulement en lui fournissant les scores de réussite ou d'échec de ses actions, avec des données d'entrée aucunement préparées. Le réseau arrive à reconstituer intégralement par lui-même les variables pertinentes, et devient un champion imbattable au bout de quelques jours. Cela marche parce que Tetris est un univers sémantiquement très restreint.

      Dans le cas d'alpha Go, il a fallu introduire beaucoup plus d'information a priori, préparer les données d'entrée et superviser l'apprentissage pour que le réseau s'oriente sur les variables pertinentes. La variabilité des situations dans un jeu de Go est beaucoup plus élevée que dans un jeu de Tetris, mais reste à savoir si elle est équivalente aux contextes d'une scène quotidienne de la vie réelle, à savoir ce qui se passe sur une route.


      Le cerveau humain est capable de savoir en quelques fractions de secondes où se trouve la route utilisable et où elle se poursuit, même si par exemple la moitié de la voie est occupée par un chantier, avec des lignes de marquage effacées et une signalétique qui n'a plus rien de standard.

      Nous y arrivons parce que nous croisons des informations de natures très différentes, certaines de perception qui relèvent du traitement d'image, d'autres de logique sur l'endroit où devrait continuer la route, d'autres culturelles sur la distinction entre un engin de chantier et un autre véhicule, avec une frontière entre les deux qui tient parfois seulement à l'usage immédiat qui en est fait.

      Théoriquement un réseau devrait pouvoir apprendre toutes ces distinctions, mais cela nécessitera une base d'exemples considérable, même augmentée par la simulation numérique, avec la difficulté d'apprentissages ad'hoc lorsque le nombre de variables définissant le contexte devient très grand.


      Si les techniques dérivées de l'analyse discriminante suffisent, cela sera une information très précieuse sur la nature de la cognition.

      Je pense que les modes d'acquisition et d'interprétation de contextes nécessiteront d'autres techniques. Mais ceci est de l'ordre de la conviction personnelle et de la pratique empirique de ces algorithmes : mon avis n'a nullement valeur de preuve.

      Supprimer
  2. Biais pro-innovation j'ai l'impression.

    http://static2.businessinsider.com/image/56a111b8e6183e263a8badf6-1200-2247/bi_graphics_20-cognitive-biases-that-screw-up-your-decisions.png

    RépondreSupprimer
    Réponses
    1. Il ne me semble pas avoir surévalué l'utilité de l'IA ni sous-évalué ses limites.

      Supprimer
    2. Oui, pardon, j'ai probablement posté ce commentaire un peu trop rapidement et aurait mieux fait de le poster à la suite du billet sur Turing et vis-à-vis de lui (et de tous les autres trop grands enthousiastes de l'informatisation).
      Ce n’était pas "contre" vous.

      Supprimer
  3. Merci pour votre billet.
    La distinction entre l'existant, le possible et l'imaginaire me semble très structurante (notamment en probabilités).

    RépondreSupprimer
  4. "Le propos des praticiens de l'intelligence artificielle est beaucoup moins ambitieux que celui des journalistes et des écrivains de science-fiction, dont la pensée n'est pas soumise aux contraintes de la pratique."

    Les "rêveurs" peuvent cependant imaginer des possibles qui deviennent par le suite des existants - cf. Jules Verne avec le voyage sur la Lune.

    RépondreSupprimer
    Réponses
    1. Certes. Mais il ne faut pas accorder au rêve une importance telle qu'il masque et déforme la réalité.

      Supprimer
  5. Je suis d'accord avec vous sur le fond, je me fais l'avocat du diable.
    Je pense aussi qu'un ordinateur ne sera jamais capable, notamment, d’éprouver des émotions, ce qui me semble être une des caractéristiques fondamentales de l’être humain.
    D'ailleurs un "rêveur" (mais pas seulement) avait bien vu cette limite de la réalité. Dans Terminator 2, James Cameron (ou son scénariste) fait dire à Arnold Schwarzenegger (qui a appris malgré tout - mais laborieusement - à sourire moyennant un déblocage / une sorte d'overclocking de son processeur) avant son auto-destruction choisie : "I know now why you cry, but it's something I can never do."

    RépondreSupprimer
  6. Son auto-destruction programmée, pas choisie justement...

    RépondreSupprimer
  7. En tout cas, un apport incontestablement positif de l'informatisation "à suffisamment long terme" (donc un authentique progrès - s'il l'on parvient a éviter les dangers - à court terme j’espère - que vous évoquez) à mon sens est le fait que ce phénomène nous amènera (amène déjà) à prendre conscience (redécouvrir, voire découvrir en réalité je pense) de nous-mêmes, en tant qu’êtres humains : qu'est-ce qui nous fait humains ? Qu'est-ce qui nous différencie fondamentalement ?

    RépondreSupprimer
    Réponses
    1. C'est en effet un apport de l'IA : elle peut libérer notre propre intelligence, mais ce sera ignoré par ceux qui préfèrent prendre l'expression "intelligence artificielle" au pied de la lettre.

      Supprimer
    2. Oui, probablement.
      Mais pour éviter que ce possible/probable ne devienne existant (certes, il existe déjà, disons pour limiter son existence jusqu'à sa disparition totale), il faut et faudra faire œuvre de pédagogie, et donc preuve de patience. Ce que vous faîtes effectivement.

      Supprimer
    3. Quel(s) autre(s) apport(s), je veux dire plus fondamenta-l/ux ?

      Supprimer
    4. Améliorer l'exactitude et la rapidité du passage des symptômes au diagnostic dans tous les domaines de connaissance, une fois l'outil convenablement étalonné.

      Supprimer
    5. Je vois, intéressant, ou plutôt prometteur.

      Supprimer