Ces auteurs craignent que l'« intelligence artificielle » ne supplante l'intelligence humaine et que l'automatisation ne supprime l'emploi des êtres humains. Cette perspective réjouit d'autres personnes : elles disent qu'il vaut mieux s'en remettre à l'ordinateur parce qu'elles estiment que l'être humain n'est pas fiable. Si toute la production est automatisée, disent-elles d'ailleurs, ce sera tant mieux car l'humanité pourra consacrer son temps aux loisirs3.
L'« ordinateur intelligent », c'est une « chose qui pense ». Ne s'agit-il pas d'une de ces chimères que le langage peut créer (il est facile d'accoler des mots), mais qui ne désignent rien qui puisse exister ? Je soutiens donc une tout autre thèse : le cerveau humain est le lieu exclusif de l'intelligence créative et si le chômage de masse semble une fatalité, c'est parce que notre société n'a pas encore assimilé l'informatisation.
Nous tirerons cela au clair en comparant l'informatique à la mécanique et à l'écriture. Cela nous fournira des analogies et des différences qui feront apparaître les impasses dans lesquelles l'informatisation risque de nous égarer si nous n'y prenons pas garde.
* *
L'ordinateur a battu le champion du monde des échecs, il pilote automatiquement les avions, il conduit une voiture mieux paraît-il que ne le fait un être humain. Mais si cet automate programmable nous semble intelligent, c'est parce qu'il est muni de programmes eux-mêmes intelligents et dont l'exécution tire parti de la puissance de ses processeurs, de la fidélité de ses mémoires, du débit de ses réseaux.
Un programme ne peut cependant être intelligent que s'il a été écrit par un programmeur intelligent. L'« intelligence de l'ordinateur » est en fait une manifestation de l'intelligence du programmeur (ou des programmeurs, si l'on tient compte de l'empilage de programmes qui traduit le code source en 0 et 1 pour qu'un processeur puisse l'exécuter).
L'intelligence du programmeur, telle qu'elle se manifeste dans un programme, est une intelligence à effet différé. Le programmeur anticipe l'utilisation du programme mais ne l'utilise pas lui-même sinon pour le tester : celui qui programme un traitement de texte, par exemple, n'est pas le même que celui qui l'utilisera pour rédiger un texte. Tout en mettant en œuvre l'intelligence du programmeur ce dernier accomplit son travail (penser le texte, l'écrire) en manifestant une intelligence à effet immédiat.
L'intelligence à effet différé incorporée dans un programme est analogue au « travail mort », capital fixe incorporé dans une machine mécanique, que l'on distingue du « travail vivant » des ouvriers qui utilisent la machine : le capital fixe est un stock de travail alors que l'ouvrier fournit un flux de travail.
La conception d'une machine est le résultat (1) d'une compétence créatrice, fondée sur la connaissance des possibilités techniques et sur l'anticipation des besoins ; (2) d'une compétence méthodique qui permet de réaliser le prototype ; (3) d'une ingénierie qui organise enfin la production, celle-ci étant en fait la reproduction du même modèle en plusieurs exemplaires. Le travail à effet différé incorporé dans une machine est ainsi la somme du travail de conception, qui manifeste une intelligence à effet différé, et du travail de (re)production.
L'intelligence à effet différé que contient un programme informatique est analogue au travail à effet différé incorporé dans une machine, mais celle-ci incorpore un travail de conception et un travail de reproduction alors qu'un programme n'incorpore qu'un travail de conception : sa reproduction en un nombre quelconque d'exemplaires ne nécessite en effet aucun travail.
L'ensemble que constituent la programmation, l'ordinateur et l'utilisation du programme présente des propriétés qui surprennent évidemment. Voici un exemple vécu : j'écris en trois jours un programme pour résoudre les sudokus, il résout en quelques secondes des sudokus dont la résolution à la main me demande vingt minutes. C'est moi qui ai écrit ce programme, il est donc une manifestation de mon intelligence et de celle des personnes qui ont conçu le langage de programmation, le système d'exploitation, etc. Est-il plus intelligent que je ne le suis ? Oui en apparence, puisqu'il résout les sudokus plus vite que moi ; et pourtant non, car il ne fait qu'exécuter le programme que j'ai conçu.
Si l'ordinateur nous impressionne tant, c'est parce que l'informatisation réalise les promesses de la magie. Des portes s'ouvrent toutes seules comme si l'on avait dit « Sésame, ouvre-toi ! ». « Abracadabra » est remplacé par quelques lignes de code qui commandent à des choses dotées d'une masse et d'un volume. Lorsqu'un programmeur s'assied devant son écran-clavier, le génie du conte lui dit « Me voici, ô maître de la lampe ! ». Ne risque-t-il pas alors de déchaîner, comme l'apprenti-sorcier, des forces qu'il ne maîtrise pas ?
Revenons à la machine. Une fois construite, elle existe dans le monde de la nature où elle produit des effets qui s'imposent à l'attention. Il est alors tentant de la considérer comme un objet naturel : quand nous pressons le bouton de notre téléviseur nous trouvons « naturel » qu'il s'allume, nous nous irritons s'il ne le fait pas. Le fait est pourtant que la machine n'est pas un objet naturel : c'est un artefact tout comme le sont les maisons et aussi les institutions, car elles ont été voulues, conçues et construites par des êtres humains selon les connaissances qu'ils avaient et les techniques qu'ils maîtrisaient.
Un artefact présente deux aspects : d'une part le service qu'il rend, d'autre part la conception humaine dont il témoigne. Cette conception exprime des valeurs : une maison bien conçue manifeste le respect de l'architecte envers les personnes qui l'habiteront, une maison mal conçue manifeste une désinvolture méprisante. La machine, la technique, ne se séparent donc pas, comme l'a dit Gilbert Simondon, de la culture et des valeurs d'une société. Ceux qui ne veulent voir dans un artefact que son utilité ou, comme on dit, son « usage », choisissent d'ignorer qu'il résulte d'une volonté et qu'il a une histoire qui se prolongera dans le futur par d'autres artefacts, résultats d'autres volontés.
Ceux qui parlent de l'« intelligence » de l'ordinateur préfèrent ignorer que cette « intelligence » réside dans des programmes, œuvre humaine qui incorpore une intelligence à effet différé tout comme le travail nécessaire à la production d'une machine est un travail à effet différé, et qui forme un couple agissant avec l'intelligence à effet immédiat de l'utilisateur.
Il est vrai qu'une relation subtile existe entre l'intelligence à effet différé stockée dans un programme et l'intelligence à effet immédiat de l'utilisateur : l'art de l'informatisation réside dans l'articulation judicieuse de ces deux intelligences, de ces deux volontés. Cette articulation se manifeste dans le couple que forment le cerveau humain (de l'utilisateur) et l'automate programmable ubiquitaire de l'informatique (muni de ses programmes).
Alors que l'intelligence réside tout entière dans le couple que forment la programmation et l'usage ou, si l'on préfère, le programmeur et l'utilisateur, l'expression « intelligence de l'ordinateur » masque le rôle de ces deux acteurs pour attribuer de façon fallacieuse l'intelligence à une chose, à une boîte noire magique dont on ne peut plus alors comprendre ni l'origine, ni la raison d'être, ni le fonctionnement. L'expression « intelligence artificielle » masque l'intelligence naturelle que l'informatisation manifeste et articule sous les deux formes de l'intelligence à effet différé et de l'intelligence à effet immédiat.
L'entreprise mécanisée articulait le travail à effet différé, incorporé dans le capital fixe, et le travail à effet immédiat des ouvriers. L'entreprise informatisée articule l'intelligence à effet différé des programmes informatiques et l'intelligence à effet immédiat des agents opérationnels. Ainsi existe entre les deux types d'entreprises une analogie (différé / immédiat) et une différence (travail / intelligence) – tout ceci étant schématique, bien sûr, car il y a aussi de l'intelligence dans l'entreprise mécanisée et du travail dans l'entreprise informatisée.
Une autre comparaison nous sera encore utile. On peut comparer la révolution que l'informatique apporte à notre mode de vie à celle que l'écriture a apportée chez les Grecs lorsqu'ils ont inventé l'alphabet qui, permettant une reproduction exacte de la parole orale, corrigeait l'ambiguïté de la notation consonantique.
Alors que cette dernière avait été utilisée pour la comptabilité, la législation et la liturgie, l'alphabet a permis de transcrire des conversations quotidiennes, des rêveries poétiques, des réflexions philosophiques. La parole, qui s'éteignait auparavant avec les ondes sonores qui l'avaient transportée, devenait éternelle ou du moins aussi durable que le support sur lequel elle était écrite ou recopiée. Les mêmes textes ont pu être lus, médités et commentés génération après génération : que l'on pense aux dialogues de Platon. Les images, concepts et raisonnements qui constituent la pensée ont pu circuler dans l'espace et dans le temps.
Les écrits contiennent, comme les programmes informatiques, une intelligence à effet différé, mais ils transmettent une pensée alors que les programmes informatiques ont pour vocation, eux, de réaliser une action : leur but, essentiellement pratique, n'est pas comme le fait un texte écrit de partager l'intelligence qu'ils incorporent, mais d'accomplir l'action qu'une intelligence a voulue et programmée. Un traitement de texte met en forme le texte que je tape en ce moment, un tableur effectue des calculs, un programme affiche une vidéo, un autre conduit les voitures que Google a conçues, un avion est guidé par son pilote automatique, etc.
Entre l'informatique et l'écriture, nous trouvons ainsi encore une analogie (différé / immédiat) et une différence (pensée / action). Nous pouvons aller un peu plus loin. L'écriture n'est pas seulement un support pour la mémoire : elle est aussi une aide pour le raisonnement. Il est difficile de faire de tête l'addition de plusieurs grands nombres, par contre c'est facile si l'on dispose d'un papier et d'un crayon. C'est vrai aussi pour le raisonnement qui enchaîne des formules algébriques : on peut entrevoir mentalement son parcours, mais on ne peut l'accomplir et le contrôler qu'avec le secours de l'écrit.
Le couple que forme notre cerveau et l'écriture est donc plus puissant que notre cerveau tout seul. « Mon stylo est plus intelligent que moi », a dit Einstein. Il ne voulait évidemment pas dire que son stylo possédait une intelligence quelconque, mais que son intelligence était moins efficace lorsqu'elle était privée des moyens que l'écriture fournit. Il en est de même pour notre relation avec l'ordinateur : le couple que nous formons avec lui, c'est-à-dire le couple que forment notre intelligence à effet immédiat avec l'intelligence à effet différé qu'incorporent les programmes, est plus puissant que ne l'est notre seule intelligence.
* *
Alors qu'un écrit transmet des représentations et des idées, l'ordinateur agit. Il semble intelligent parce que sa puissance et sa rapidité lui permettent de réaliser des actions qui sont hors de notre portée : aucun humain ne pourrait faire ce que fait le pilote automatique d'un avion de ligne. Éventuellement doté de capteurs qui lui permettent de réagir à son environnement en exécutant la suite d'opérations qui a été programmée par un individu intelligent l'ordinateur suit, de façon automatique, une chorégraphie dont la précision impressionne.
Tout cela éveille une tentation. Si l'intelligence à effet différé à laquelle l'ordinateur confère sa puissance se révèle en tant d'occasions plus efficace que l'intelligence à effet immédiat de l'être humain, ne faut-il pas qu'elle la supplante ? Comme l'intelligence à effet différé est l'intelligence du programmeur, l'intelligence humaine n'agirait plus alors que par l'exécution de programmes préparés à l'avance et elle ne laisserait plus aucune place à la spontanéité de l'être humain qui réagit devant un environnement.
L'histoire a connu cela. Au XVIIIe siècle les soldats de l'armée prussienne avaient acquis par la schlague et le drill des automatismes qui leur permettaient d'agir vite et bien pour charger un fusil, tirer, manœuvrer en ligne ou en colonne, etc. Cette armée hautement professionnelle a pourtant été vaincue à Valmy par une armée inexperte, mais animée par l'enthousiasme républicain.
Est-il raisonnable de croire que l'informatisation pourra interdire aux êtres humains d'interpréter le monde qui les entoure et d'agir en conséquence ? Croit-on que les entreprises, la société, seront plus efficaces si elles interdisent toute initiative à l'agent opérationnel qui se trouve en face d'un client qu'il s'agit de comprendre, ou devant la complexité si souvent surprenante du monde de la nature ?
Examinons comment fonctionne le cerveau que nous avons hérité de nos ancêtres chasseurs-cueilleurs. Il est certes moins rapide et moins puissant qu'un ordinateur, mais il est capable d'interpréter son environnement, de trouver des repères pour se débrouiller face à des situations nouvelles, bref de faire des choses pour lesquelles il n'a pas été programmé. S'il est ainsi créatif, c'est parce qu'il appartient à un corps dont les émotions lui signalent des idées potentiellement fécondes parmi celles que la glande cérébrale sécrète continuellement selon des associations aléatoires (cf. « l'intelligence créative »). C'est cette créativité qui fait de nous des inventeurs, des innovateurs, des organisateurs, des programmeurs, des personnes capables enfin de se débrouiller, et cela nous distingue de l'ordinateur.
Ceux qui, dans les entreprises, ont pour fonction de concevoir de nouveaux produits puis de mettre en scène leur production, sont des créateurs. Ceux qui fournissent au client les services nécessaires doivent prendre des initiatives pour traiter la diversité des cas particuliers : la qualité de ces services est d'ailleurs souvent le principal paramètre de la qualité du produit et, comme on dit, de la « compétitivité » de l'entreprise. Mais beaucoup d'entreprises n'ont pas encore compris que plus la production est automatisée, plus le client a besoin de rencontrer un être humain qui puisse le conseiller, le dépanner, etc. Il arrive trop souvent que le conseiller clientèle dans une banque, l'agent derrière un guichet, désolés, disent être empêchés par « l'ordinateur » de faire une chose simple qui réponde à la demande du client et aux exigences du bon sens.
Les entreprises qui agissent ainsi dégradent la qualité du service. Elles compromettent leur compétitivité, donc leur part de marché et finalement leur pérennité. La sélection naturelle ne laissera survivre que celles qui auront compris qu'il convient de laisser son initiative à l'intelligence à effet immédiat.
C'est pourquoi la perspective de l'emploi n'est pas aussi noire qu'on ne le croit communément. Beaucoup de tâches seront automatisées et c'est tant mieux : il ne convient pas de faire accomplir par des êtres humains le travail qu'une machine ou un ordinateur peut faire mieux qu'eux. Mais quand les entreprises auront compris que le secret de l'efficacité réside dans l'articulation de l'intelligence à effet différé et de l'intelligence à effet immédiat, quand elles accorderont l'importance qui convient à la qualité des services que leur produit comporte, quand elles s'organiseront en conséquence, quand le système éducatif formera les compétences nécessaires, pourquoi le plein-emploi serait-il impossible ? Ceux qui l'affirment sont des myopes qui ne voient pas plus loin que la conjoncture actuelle.
Des risques existent bien sûr. Celui d'une informatisation, d'une automatisation insuffisantes, qui contraignent l'être humain à effectuer des tâches qu'un automate ferait mieux que lui. Celui d'une informatisation, d'une automatisation excessives, qui nient le rôle de l'intelligence à effet immédiat et inhibent l'initiative des agents opérationnels.
Le programme exprime, avons-nous dit, l'intelligence du programmeur : il peut arriver que celui-ci soit inintelligent, inattentif, étourdi, et l'on n'est d'ailleurs jamais certain qu'un programme soit parfaitement correct même s'il a été soigneusement testé. Un programme mal conçu peut provoquer des dégâts systémiques, des incidents sont de toute façon inévitables. De plus, même si chaque programmeur est par hypothèse intelligent et si chaque programme est correct, il faudra encore savoir maîtriser l'effet de milliers d'automates fonctionnant en parallèle en échangeant des données : cela suppose des simulations, une approche statistique, une mesure des incertitudes. L'informatisation sollicitera, encore et toujours, l'intelligence humaine.
____
1 Rory Cellan-Jones, « Stephen Hawking warns artificial intelligence could end mankind », BBC News Technology, 2 décembre 2014.
2 Erik Brynjolfsson et Andrew McAfee,Race Against the Machine, Digital Frontier Press, 2011.
3 Jean-Michel Truong, Totalement inhumaine, Les empêcheurs de penser en rond, 2002.
Merci pour cette belle clarification des réelles possibilités de l'IA, qui permet de remettre à leur juste place les discours trop alarmistes ou trop enthousiastes sur ces technologies.
RépondreSupprimerLe rêve paresseux de l'automatisation de la pensée a existé de tous temps. Un autre domaine sur lequel vous avez beaucoup écrit cède parfois à cette tentation : la statistique, dont la puissance peut faire croire à certains décisionnaires qu'elle les dispense de réfléchir ou de prendre la responsabilité de leurs décisions. Heureusement, la phase d'interprétation des statistiques fait resurgir la part de la réflexion humaine.
Sur l'ensemble de ces tentatives d'automatisation de la pensée, j'aime beaucoup cette phrase de Douglas Hofstadter : "L'être humain ne pourra jamais se dispenser d'être intelligent, qu'elle que soit l'intelligence qu'il déploie pour y parvenir."
Bonjour,
RépondreSupprimervous n'envisagez cependant pas la qualité d'un logiciel auto-apprenant. Disposant de l'intelligence de son programmeur "pour apprendre" et de capacité de mémoire ET de gestion de cette mémoire, une intelligence doit pouvoir émerger.fut-ce au prix d'un temps d'apprentissage plus long.
On est libre de se complaire à imaginer tout ce que l'on veut, mais il ne faut pas confondre l'imaginaire avec la réalité.
SupprimerJe reformulerai donc :
SupprimerAujourd'hui, les réseaux neuronaux sont une réalité, basés principalement sur des algorithmes d'apprentissages, les rendant indépendant de leur implémenteur. Une part de l'intelligence à effet différé se retrouve donc dans la capacité d'apprentissage et la capacité de raisonnement, mais pas dans la connaissance et le raisonnement de ces réseaux neuronaux. Ils échappent donc à tout déterminisme lié à la logique "fixée" dans un logiciel.
A priori, comme toute innovation de rupture, à la fois les critères d'évaluation actuels ne sont pas adaptés pour évaluer cette innovation - ce que certains malgré tout comme Hawking supputent intuitivement - mais aussi les performances se situent aussi probablement ailleurs que dans notre propre champ de compréhension, pour probablement y revenir.
Pour prendre une analogie, on pourrait considérer notre situation comme celle de Kodak au moment de l'émergence de la photo numérique ou de l'iPhone dans le monde du numérique mobile.
Merci, c'est plus clair ainsi.
SupprimerIl ne faut pas être dupe de l'analogie que le vocabulaire suggère entre les réseaux neuronaux informatiques et les neurones du cerveau. On lit la phrase suivante à propos des réseaux neuronaux dans l'entretien de Spectrum avec Michael Jordan, qui sait de quoi il parle : « What you were describing is aiming to get closer to a simulation of an actual brain, or at least to a simplified model of actual neural circuitry, if I understand correctly. But the problem I see is that the research is not coupled with any understanding of what algorithmically this system might do. It’s not coupled with a learning system that takes in data and solves problems, like in vision. It’s really just a piece of architecture with the hope that someday people will discover algorithms that are useful for it. And there’s no clear reason that hope should be borne out. It is based, I believe, on faith, that if you build something like the brain, that it will become clear what it can do. »
Merci Michel. Plusieurs remarques :
RépondreSupprimer"Le cerveau humain est le lieu exclusif de l'intelligence créative ..." ne peut être qu'une hypothèse. Voici des arguments contre cette exclusivité anthropocentrique : des intelligences animales (utilisation d'outils par des singes ou des oiseaux), peut-être nos systèmes immunitaires, capables d'inférences (certes non conscientes). Et puis, bien sûr, en changeant d'échelle : la vie terrienne, qui a engendré, entre autres, nos cerveaux ...
Reste aussi, bien sûr, à définir "intelligence créatrice", vaste question.
Il est vraisemblable que le cerveau humain n'est intelligent que ... s'il est suffisamment en contact avec d'autres. Autrement dit le "siège" de l'intelligence (si cela a un sens) pourrait être plutôt le réseau de "cerveaux" communiquant entre eux et avec l'environnement.
Sur la distinction entre "intelligence à effet différé" et "intelligence à effet immédiat" : moyennant la définition de "intelligence", il y a une analogie avec la distinction compilation / interprétation-exécution, largement (mais pas définitivement !) débattue depuis J. Von Neumann, Mc Carthy, etc. C'est une affaire "à tiroirs", la distinction est relative. Et c'est un argument qui a été utilisé ... pour se convaincre de l'éventuelle possibilité de créer une intelligence artificielle ! Ainsi tes arguments sont peut-être à double-sens. Tant mieux, ils sont profonds.
Dernière remarque : c'est la mode de (se) faire peur avec l'intelligence artificielle qui pourrait devenir un danger mortel pour l'humanité. Appliquant alors le principe de précaution, on doit cesser toute recherche sur ce sujet et n'utiliser que notre sottise naturelle qui, étant sans doute "bio", nous préservera de tous les dangers, c'est logique !
L'« intelligence de l'ordinateur » est censée être équivalente à l'intelligence humaine ; c'est pourquoi je ne considère que celle-ci, et non celle des animaux ni des protéines. Je propose une définition de l'intelligence créative dans www.volle.com/opinion/creation.htm. Si on l'accepte, on en déduit que le cerveau individuel est le lieu de naissance des idées nouvelles. La coopération de divers cerveaux est cependant nécessaire pour qu'une idée nouvelle puisse se répandre et que ses conséquences pratiques puissent germer.
SupprimerMerci Michel. Voici qq remarques que je me permets de partager avec toi et tes lecteurs (extraits de ton article et mes observations précédées de mes initiales).
RépondreSupprimerL’automatisation supprime l'emploi des êtres humains.
(JPhD) Ceux qui défendent ce point de vue sont victimes de ce que j’appelle le « syndrome du poinçonneur des Lilas ». Mais on sait tous qu’il y a plus de VA dans les cerveaux (et le business) qui conçoivent les robots de billetterie, que dans les mains des ex-poinçonneurs de la RATP.
si le chômage de masse semble une fatalité, c'est parce que notre société n'a pas encore assimilé l'informatisation.
(JPhD) Les causes sont multiples l’assimilation de l'informatisation étant une d’elles. Mais c’est avant tout le fait de la rigidité de la pensée française (cf. droit du travail) et des dirigeants et des élus qui sont – plus que dans beaucoup de pays occidentaux – réfractaire aux changements (cf. article : La transformation numérique, victime du top management ! )
les entreprises auront compris que le secret de l'efficacité réside dans l'articulation de l'intelligence à effet différé et de l'intelligence à effet immédiat, quand elles accorderont l'importance qui convient à la qualité des services que leur produit comporte.
(JPhD) Autrement dit, quand on est plus agile que les autres avec les outils informatiques on crée de la valeur ajoutée et on gagne en compétitivité. Et cette VA n’est pas proportionnelle avec le volume (heures) de travail produit : cas appliqué du technicien qui récupère en 1 heure les données d’un disque dur HS, données qui ont une valeur inestimable pour le propriétaire du disque : prix du service 20 k€ (le client fait remarqué au prestataire que son service est très cher, ce dernier lui rétorque : ce que je viens de faire en 1 heure est le résultat de 5 ans d’études, et la valeur de mon travail n’est pas dans le temps passé mais dans le résultat…)
.
Comme on dit que le chien ne mord pas la main qui le nourrit, je peux couper le bouton de l'alimentation électrique ! Quand on aura des ordinateurs qui pourrons fabriquer par eux même la production et distribution d'électricité on en reparlera ? Ce qui me fait peur c'est que des hommes peuvent dédaigner autant leur condition humaine pour abandonner leur souveraineté à des machines !
RépondreSupprimerJ'ai bien aimé les interactions amicales entre l'homme et l'ordinateur dans le film "Interstellar" - Philippe
RépondreSupprimer