mardi 17 mars 2020

Dynamique et ressort de l'intelligence artificielle

(Cette série est ma contribution au colloque sur l'intelligence artificielle organisé au Maroc par le professeur Jaouad Dabounou.)

« These machines have no common sense; they do exactly as they are told, no more and no less. This fact is the hardest concept to grasp when one first tries to use a computer. »
(Donald E. Knuth, The Art of Computer Programming, Addison Wesley 1997, volume 1, p. v).

Comme toute discipline intellectuelle, comme toute technique, l’intelligence artificielle obéit à une dynamique : elle a une origine, elle a connu une évolution et dans sa situation présente est tendu un ressort qui la propulse vers son futur.

L’approche historique permet de poser les problèmes philosophiques et sociologiques que l’IA éveille inévitablement puisqu’elle s’est placée sur le terrain de la pensée et de ses rapports avec l’action.

Elle fait aussi apparaître des exigences éthiques dont la toute première est sans doute de tirer au clair la réalité de ce dont on parle.

Turing : informatique = intelligence

Les hivers des deux premières IA


De l'analyse des données à la troisième IA


Vers un troisième « hiver de l'IA » ?

Place de l'IA dans l'informatisation

Éthique de l’IA

Futur de l'IA

Turing : informatique = intelligence

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

L’origine de l’IA se trouve dans un article publié par Alan Turing en 19501, où il définit un test qui permettrait de dire qu’il n’existe pas de différence entre l’intelligence humaine et celle de l’ordinateur2.

Ce test qui s’appuie sur le « jeu de l’imitation » sera réussi, dit-il, si lors d’un exercice de cinq minutes l’interrogateur aura confondu l’ordinateur avec un être humain dans au moins 30 % des cas. On peut évidemment estimer, contrairement à Turing, qu'il serait hardi de déduire d'un tel test que l'ordinateur est « intelligent ».

Dans le même article Turing explique d'ailleurs ce qu’est un ordinateur :

« On peut expliquer l'idée qui se trouve derrière les ordinateurs en disant qu'ils sont conçus pour réaliser toutes les opérations qui pourraient être faites par un calculateur humain. Le calculateur humain est supposé suivre des règles fixes ; il n'a pas le droit de s'en écarter le moins du monde. Nous pouvons supposer que ces règles lui sont fournies dans un livre qui sera modifié chaque fois qu'on veut lui faire faire un nouveau travail. »

L’ordinateur est donc essentiellement un automate programmable, fait pour exécuter tout ce qui peut être programmé. Son « intelligence » est une « intelligence à effet différé » stockée dans ses programmes, tout comme un « travail à effet différé » (ou « travail mort ») est stocké dans le capital fixe d’une entreprise en l’attente du « travail à effet immédiat » (ou « travail vivant ») des agents opérationnels.

Si l’ordinateur reçoit de son environnement les signaux qui déclenchent le programme celui-ci sera exécuté, grâce à la puissance de son processeur, avec une vitesse dont un calculateur humain serait incapable : il peut sembler accomplir alors certaines des promesses de la magie.

L’extension ainsi apportée à l’action potentielle est cependant limitée car l’ordinateur ne peut qu’exécuter son programme : il ne possède pas le « bon sens » qui permet à un être humain d’interpréter un imprévu, de s’adapter à une situation nouvelle, etc.
« L'ordinateur et l'homme sont les deux opposés les plus intégraux qui existent. L'homme est lent, peu rigoureux et très intuitif. L'ordinateur est super rapide, très rigoureux et complètement con. »

(Gérard Berry, entretien avec Rue 89, 26 août 2016.)
Turing en était conscient. Dans son dernier article3 il a évoqué « the inadequacy of "reason" unsupported by common sense », expression dont nous devrons sonder la profondeur. 

Episode suivant : Les hivers des deux premières IA
___
1 Alan Turing, « Computing machinery and intelligence », Mind, 1950.
2 Le mot « ordinateur » a été créé en 1955 par le linguiste Jacques Perret à la demande d’IBM qui voulait traduire « computer » en français en évitant « calculateur », jugé mauvais pour l’image de ses machines.
3 Alan Turing, « Solvable and Unsolvable Problems », Science News, 1954.

Les hivers des deux premières IA

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent : Turing : informatique = intelligence

Première IA : automatiser le raisonnement

L'article de Turing avait attiré l'attention des informaticiens et éveillé leur ambition. John McCarthy a inventé en 1956 l’expression « intelligence artificielle » pour fournir à l’informatique4 une autre orientation que celle indiquée par la cybernétique de Norbert Wiener :

« One of the reasons for inventing the term "artificial intelligence" was to escape association with "cybernetics". Its concentration on analog feedback seemed misguided, and I wished to avoid having either to accept Norbert Wiener as a guru or having to argue with him. »

(John McCarthy, « Review of The Question of Artificial Intelligence » in Defending AI Research: A Collection of Essays and Reviews, CSLI, 1996.)

La première génération de l’IA, impulsée par John McCarthy et Herbert Simon, a été consacrée à l’automatisation du raisonnement : il s’agissait d’utiliser l’ordinateur pour prouver des théorèmes, pour traduire des textes d’une langue dans une autre, etc. Après quelques résultats encourageants les déceptions s’accumulèrent, notamment à propos de la traduction du russe vers l’anglais qui intéressait beaucoup l’armée américaine.

Les crédits se tarirent et la recherche en IA connut son premier « hiver » à partir de 1974.

Deuxième IA : automatiser l’expertise

La recherche fut relancée vers 1980 par l'espoir dans les « systèmes experts ». Il s’agissait d’introduire dans un programme les connaissances implicites des experts d’un domaine de l’ingénierie, de la finance, etc. et d’en déduire des conséquences logiques à l’aide d’un « moteur d’inférence » afin de pouvoir les mettre en œuvre en bénéficiant de la puissance et de la vitesse des processeurs.

Alors que les algorithmes avaient jusqu’alors traité logiquement des problèmes bien définis, les systèmes experts devaient enregistrer ainsi les « règles de pouce » et le « coup d’œil » des experts (par exemple les procédés du « chartisme » qu’utilisaient les opérateurs des salles de marché pour interpréter les graphiques des cours de bourse et des taux de change).

Les déceptions s’accumulèrent cependant de nouveau : la collecte des expertises rencontrait le mur de complexité qu’il faut franchir pour pouvoir expliciter des savoirs implicites, et en outre lorsque la conjoncture changeait le système expert restait rigide alors que l’expert humain adaptait intuitivement ses « règles de pouce ».

Vers 1987 l’IA entra dans un deuxième « hiver ».

Épisode suivant :  De l'analyse des données à la troisième IA
__
4 Le mot « informatique » a été créé en 1962 par Philippe Dreyfus, alors ingénieur chez Bull, pour traduire en français l’expression « computer science ».

De l'analyse des données à la troisième IA

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent : Les hivers des deux premières IA

Analyse des données = informatique + statistique

Les techniques de l’analyse des données développées dans les années 1960-70 ont anticipé la démarche qui sera celle de la troisième IA.

La statistique, avec ses « tris à plat » et ses « tris croisés », avait d’abord publié essentiellement des totaux et des moyennes, puis la régression multiple, qui estime une variable quantitative à partir de ses corrélations avec d’autres variables dont la valeur est connue, a fourni son principal outil à l’économétrie.

L’analyse systématique des corrélations nécessitait cependant une « analyse factorielle » qui suppose de pouvoir calculer les vecteurs propres d’un tenseur d’ordre deux de grande dimension. Seul l’ordinateur en était capable : les progrès de l’informatique permirent de la développer à partir des années 1960 selon diverses méthodes qui sont toutes (ainsi que la régression) des cas particuliers de l’analyse canonique généralisée5 :
  • l’analyse en composantes principales (ACP) de Hotelling6 visualise la corrélation de données quantitatives ;
  • l’analyse factorielle des correspondances (AFC) de Benzécri7 visualise la corrélation de données qualitatives, telle que la mesure leur chi2 ;
  • l’analyse factorielle discriminante (AFD) met en évidence la corrélation entre des symptômes et un diagnostic, technique qui sera comme nous le verrons enrichie et approfondie par la troisième IA ;
  • à ces analyses factorielles étaient associées des techniques de classification automatique qui permettent de délimiter des « clusters » dans un espace de grande dimension.
L’analyse des données a rencontré de façon précoce certains des problèmes auxquels l’IA est aujourd’hui confrontée :
  • la qualité des résultats d’une analyse dépend de celle des données qui l’alimentent : la règle « garbage in, garbage out » est implacable, mais il est parfois très difficile de « nettoyer les données » ;
  • l’examen des corrélations procure des « indices » utiles mais leur interprétation nécessite de se référer à un cadre théorique que la statistique à elle seule ne comporte pas ;
  • l’analyse discriminante permet des indiscrétions (estimer par exemple les opinions d’une personne à partir d'une observation de son comportement), ce qui peut se révéler à la fois contraire à l’éthique et dangereux.
La classification automatique suppose par ailleurs des choix qui doivent être pertinents en regard du but visé par l’étude. Il faut en effet choisir :
  • l'ensemble à classifier en définissant les éléments (« individus ») qui le composent ;
  • les attributs observés sur chaque individu ;
  • pour chaque couple d'individus une distance, fonction de la différence entre leurs attributs (« critère de classification ») ;
  • une distance entre les sous-ensembles (« stratégie d'agrégation »).
L'analyse des données fournit des graphiques (projection des « nuages de points » sur les plans définis par deux axes factoriels, « arbre » représentant une classification) et des « aides à l'interprétation » qui attirent l'attention sur les phénomènes les plus significatifs du point de vue de la statistique. Comme elle est cependant fondée sur les seules corrélations, elle ignore les causalités et ne procure donc aucune explication de ces phénomènes. L'expérience montre que l'interprétation doit sortir de la statistique pour se référer aux hypothèses causales que comporte la théorie du domaine observé.

L'un des résultats les plus féconds d'une analyse des données est l'éventuelle contradiction qu'elle apporte à la théorie, et qui révèle soit une erreur dans les données (c'est le cas le plus fréquent), soit un phénomène réel que la théorie n'a pas pris en compte (c'est le cas le plus intéressant) : mais il faut connaître la théorie pour pouvoir percevoir une telle contradiction.

 Troisième IA : automatiser le diagnostic

Vers 2000 l’augmentation de la puissance des ordinateurs a permis de relancer les recherches en IA. Alors que l'analyse factorielle discriminante8 procurait les combinaisons linéaires de symptômes qui distinguent au mieux les diagnostics, la recherche s’est alors appliquée à mettre au point des méthodes d’analyse discriminante pour la reconnaissance d’images et d’autres types de diagnostic9 :
  • une machine à vecteurs de support (Support Vector Machines10, SVM) indique la frontière, éventuellement sinueuse, qui sépare au mieux les individus selon leur diagnostic dans le nuage de points qui les représente dans l'espace des symptômes ;
  • un réseau neuronal est un ensemble d'algorithmes communiquant par des liaisons, nommées « synapses », dont la pondération non linéaire tâtonne jusqu'à ce que l'interprétation des symptômes soit conforme au diagnostic : c’est l’« apprentissage supervisé » (supervised learning) ;
  • le scoring permet d’associer à un diagnostic (ou de façon générale à un classement) une évaluation quantitative de sa vraisemblance : il s’obtient par une régression ;
  • l’« apprentissage non supervisé » (unsupervised learning) est une technique de classification automatique qui classe les « individus » selon leurs attributs et sans faire référence à un diagnostic : elle suppose de choisir un critère de classification et une stratégie d’agrégation.
Le réseau neuronal a été utilisée par exemple pour diagnostiquer le cancer du col de l’utérus11 : étalonné sur 100 000 images de cas pour lesquels le diagnostic est connu (tissu sain, inflammation bénigne, lésion pré-cancéreuse, suspicion de cancer), il fournit le petit logiciel qui équipera un iPhone et fournira une estimation du diagnostic.  

Alors que l’utilisation sur le terrain de cet outil « intelligent » est commode, sa préparation a nécessité un important travail humain pour constituer la base d’images, régler le réseau neuronal et tester la méthode sur un échantillon (un dixième des images de la base avait été réservé à cette fin).

Un réseau neuronal est une « boîte noire » car personne ne peut savoir pourquoi il est arrivé à un résultat. Cela contrarie les esprits logiques et certains praticiens jugent les SVM plus efficaces que les réseaux neuronaux. D'autres ont l'opinion contraire, d'autres encore estiment que la meilleure méthode s'appuie sur une combinaison des deux12.

Ces méthodes rencontrent les mêmes difficultés que l’analyse des données (« garbage in, garbage out », interprétation), auxquelles s’ajoute le risque d’un surapprentissage (excessive fidélité aux particularités de l’échantillon que contient la base de données). Dans tous les cas, la mise au point d’un outil d’« intelligence artificielle » fiable et d’usage commode suppose un important travail humain pour collecter les données, conforter leur qualité, régler les paramètres de l’outil et tester sa performance.

Épisode suivant :  Vers un troisième « hiver de l'IA » ?
 ___
5 Michel Volle, Analyse des données, Economica, 1997, p. 233.  
6 Harold Hotelling, « Analysis of a Complex of Statistical Variables with Principal Components », 1933, Journal of Educational Psychology, 1933.
7 Jean-Paul Benzécri, L’analyse des données, Dunod, 1982.
8 Michel Volle, op. cit., p. 206.  
9 Gérard Dreyfus et alii, Apprentissage statistique, Eyrolles, 2008.  
10 Corinna Cortes et Vladimir Vapnik, « Support-Vector Networks », Machine Learning 20, 1995.
11 Cary Champlin, David Bell et Celina Schocken, « AI Medicine Comes to Africa's Rural Clinics », Spectrum, mai 2017.
12 Yichuan Tang, « Deep Learning using Linear Support Vector Machines », International Conference on Machine Learning, 2013.

Vers un troisième « hiver de l'IA » ?

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent :  Vers un troisième « hiver de l'IA » ?

Ce survol de l’histoire nous montre que l’IA a connu trois versions lors de chacune desquelles elle s’est donné un but particulier (simuler le raisonnement humain, automatiser l’expertise, informatiser le diagnostic). Chaque IA a connu le même parcours : annonces optimistes, premiers succès, puis difficultés imprévues et constat d’erreurs, enfin (pour les deux premières) « hiver » et gel de la recherche. La troisième IA est aujourd’hui confrontée à l’étape des difficultés et des erreurs. L’échec de Watson dans le diagnostic du cancer a frappé les esprits :

« Internal IBM documents show that its Watson supercomputer often spit out erroneous cancer treatment advice and that company medical specialists and customers identified “multiple examples of unsafe and incorrect treatment recommendations” »
(Casey Ross et Ike Swetlitz, « IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer treatments, internal documents show. », STAT, 25 juillet 2018.)

Certaines erreurs peuvent avoir de graves conséquences pour les personnes concernées :
« Dong Mingzhu, president of Chian's biggest air conditioning maker, had her image flashed up on a public display screen in the city of Ningbo, near Shanghai, with a caption saying she had illegally crossed the street on a red light. But Ningbo's facial recognition cameras had actually only caught an advert featuring her face on the side of a passing bus – a fact quickly spotted by Chinese citizens, who shared pictures of the alert on Weibo, a social network similar to Twitter. »
(Laurence Dodds, « Chinese businesswoman accused of jaywalking after AI camera spots her face on an advert », The Telegraph, 25 novembre 2018.)

Des essayistes évoquent avec insistance « les limites de l’intelligence artificielle15 ». L’examen des difficultés et erreurs montre qu’elles proviennent non des outils et méthodes de l’IA eux-mêmes, mais de trois problèmes distincts :
  • la qualité des données sur lesquelles l’IA est étalonnée ;
  • l’interprétation des résultats ;
  • la complexité de la relation entre l’informatique et l’action.

Pour comprendre la situation présente il faut replacer l'IA dans le cadre que Turing a considéré, celui de l'informatisation dont elle est une manifestation particulière.

Épisode suivant :  Place de l'IA dans l'informatisation
___
15 Jérôme Capirossi, « Les limites de l’intelligence artificielle », Les Échos}, 22 janvier 2018.

Place de l'IA dans l'informatisation

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent :  Vers un troisième « hiver de l'IA » ?

La qualité des données

Les difficultés rencontrées par Watson dans le diagnostic du cancer s’expliquent par le caractère artificiel de la base de données sur laquelle il avait été étalonné :

« Most of the data fed to it is hypothetical and not real patient data. That means the suggestions Watson made were simply based off the treatment preferences of the few doctors providing the data, not actual insights it gained from analyzing real cases. »
(Angela Chen, « IBM’s Watson gave unsafe recommendations for treating cancer », The Verge, 26 juillet 2018.)

Le problème est général : qu’il s’agisse des symptômes ou des diagnostics, beaucoup de bases de données sont sujettes à des biais racistes, sexistes ou autres, qui altèrent la couverture du domaine considéré, et aussi à des erreurs de codage ou à des lacunes dans l’observation de certains attributs17. Comme « garbage in, garbage out » ces défauts vont se retrouver dans les résultats que fournit l’IA.

Alors que le « Big Data » semble mettre toutes les données à disposition, seule une minorité d’entre elles est d’une qualité suffisante pour alimenter une IA. L’insouciance trop répandue concernant la qualité des données sera la cause de nombreuses erreurs et difficultés :

« I make my living from data, yet I consistently find that whether I’m talking to students or clients, I have to remind them that data is not a perfect representation of reality: It’s a fundamentally human construct, and therefore subject to biases, limitations, and other meaningful and consequential imperfections. »
(Andrea Jones-Rooy, « I’m a data scientist who is skeptical about data », Quartz, 24 juillet 2019.)

L’interprétation des résultats

Comme l'analyse des données, l’IA la plus pointue ne fait qu'explorer des corrélations. Des « interprétations » qui s'appuient sur la seule statistique seront erronées ou naïves : les corrélations ne sont que des indices qui, comme dans une enquête policière, orientent vers la compréhension mais ne suffisent pas pour l'atteindre.

La tentation est cependant forte : Jean-Paul Benzécri a prétendu ainsi que l'analyse des données révélait « le pur diamant de la véridique nature19 ». Dans un livre consacré au Big Data et qui a eu beaucoup d’influence des essayistes ont érigé cette erreur en principe :

« Move away from the age-old search for causality. As humans we have been conditionned to look for causes, even though searching causality is often difficult and may lead us down the wrong paths. In a big data world, by contrast, we won't have to be fixed on causality; instead we can discover patterns and correlations in the data that offer us novel and invaluable insights. The correlation may not tell us precisely why something is happening, but they alert us that it is happening. »
(Viktor Mayer Schönberger et Kenneth Cukier, Big Data, Eamon Dolan/Mariner Books, 2014.)

Pour pouvoir interpréter les résultats d’une IA il faut en fait posséder une bonne connaissance de la théorie du domaine observé, car celui qui ignore la théorie tombera fatalement dans quelqu'une des naïvetés que l'expérience des théoriciens a depuis longtemps repérées  : une théorie, c'est le trésor des interprétations antérieures condensé sous la forme de liens de causalité entre les concepts – trésor qu'il faut souhaiter exempt du pédantisme et de l'étroitesse qui sont pour la théorie autant de maladies. L'observation dont les données résultent s'appuyait d'ailleurs elle-même sur une théorie (parfois implicite) qui lui a fourni ses concepts et dont il convient d'avoir au moins une intuition.

L’IA et l’action

« AI is great at applying "specific knowledge" and very poor at applying "general knowledge". Specific knowledge relates to rules, decision trees and algorithms that the system uses to process large amounts of data come up with specific recommendations or warnings. Whereas, general knowledge relates to general situational awareness. »

(Peter Green, « The Failure Of Artificial Intelligence In Manufacturing », Manufacturing.net, 10 avril 2017).

L’ordinateur est fait pour accomplir tout ce qui est programmable. Pour qu’un processus soit programmable il faut qu’il puisse être élucidé, prévisible et prévu. La programmation se construit donc dans le « petit monde » rationnel que délimite une grille conceptuelle et qui suppose aussi des hypothèses car l’action, visant toujours un résultat, postule nécessairement une causalité.

Chaque spécialité professionnelle a son langage et ses méthodes, faits pour accomplir efficacement l’action quotidienne et dont la maîtrise s’acquiert par la formation et l’expérience (d’un médecin, d’un militaire, d’un architecte, etc.). L’organisation d’une institution définit elle aussi un langage et des méthodes ainsi que la structure des pouvoirs de décision légitimes.

Le « petit monde » rationnel d’une spécialité ou d’une institution agit à travers le corps de professionnels qui l’ont assimilé jusque dans leurs réflexes. Informatiser l’action suppose d’expliciter la rationalité enfouie dans des habitudes.

Turing a cependant évoqué « the inadequacy of "reason" unsupported by common sense » : cela nous invite à élargir la réflexion.

Si le « petit monde » rationnel d’une spécialité, d’une institution, d’une entreprise, fournit les concepts et hypothèses favorables à l’efficacité, c’est en faisant abstraction de la complexité illimitée du monde réel sur lequel et dans lequel cette institution ou cette entreprise agissent. Or l’existence du monde réel se manifeste par des phénomènes étrangers au « petit monde » de la rationalité : pannes, incidents, accidents, comportements imprévisibles, rencontre enfin avec des êtres (clients, fournisseurs, partenaires) dont le langage est celui d'un autre « petit monde ».

Une extension de la raison est donc nécessaire pour pouvoir vivre dans le « monde réel » et non plus seulement dans un « petit monde » rationnel : nous nommerons la raison ainsi étendue « raison raisonnable » pour la distinguer de la « raison rationnelle ».

On rencontre cette raison raisonnable chez les stratèges et les entrepreneurs : confrontés à une situation sur laquelle ils n’ont qu’une information partielle et parfois fallacieuse, ils exercent sur le monde réel une vigilance périscopique qui leur procure le « coup d’œil » et leur permet de prendre intuitivement des décisions judicieuses malgré les incertitudes.

Dans les entreprises, des « animateurs » complètent eux aussi la raison rationnelle par le « bon sens » de la raison raisonnable : ils règlent les incidents dans la foulée et sans faire d’histoire, aident leurs collègues en cas de difficulté, créent la « bonne ambiance » qui donne une « âme » à l’institution21, etc.

Chacun est ainsi invité à cultiver deux formes de la raison : tandis que l’action professionnelle quotidienne, dont les habitudes et réflexes s’appuient sur des concepts et méthodes acquis lors d’une formation, bénéficie de la clarté de la raison rationnelle, la « raison raisonnable », vigilante, est attentive à prendre en compte les phénomènes du monde réel et complexe sur lequel l’action professionnelle agit et dont elle reçoit les effets.

L’informatique et l’IA ont vocation à prendre en charge le travail répétitif, l’action réflexe et en définitive tout ce qui, étant programmable, relève de la raison rationnelle. Dans une économie informatisée les humains doivent consacrer leur attention, leur activité, à ce qui n’est pas répétitif : surveiller le monde réel, interpréter une situation, répondre à un imprévu, prendre une initiative, manifester une créativité, etc.

En ce sens l’IA nous libère : n’a-t-on pas assez déploré l’aliénation que provoque une action répétitive ?

L’IA risque cependant de subir de nouveau l’hiver qui suit l’éclatement d’une bulle spéculative. Ce ne serait en un sens que justice tant les annonces et attentes ont été excessives. Des expressions comme « intelligence artificielle », « réseau neuronal », « apprentissage profond », etc. ont malencontreusement fait éclore dans le grand public, les médias, ainsi que chez les dirigeants de la politique et des entreprises, des images dont la puissance suggestive est sans rapport avec la réalité scientifique, technique et pratique, et éveillé tout un monde de chimères dont la plus suggestive est la « singularité22 » de Kurzweil.

Les coupables ne sont pas les spécialistes et praticiens de l’intelligence artificielle, qui savent exactement de quoi il s’agit, mais des essayistes amateurs de science-fiction qui se sont laissé entraîner par leur imagination, des médias avides de sensationnel et aussi, il faut le dire, des charlatans vendeurs de « snake oil »: « Companies advertising AI as the solution to all problems have been helped along by credulous media », « Much of what’s being sold as "AI" today is snake oil. It does not and cannot work23 ».

Arvind Narayanan estime que la troisième IA est :
  • efficace et en progrès rapide pour le diagnostic, qui doit cependant être complété par une interprétation : reconnaissance d'images, reconnaissance faciale, diagnostic médical, transcription écrite de la parole, repérage des « deepfakes ». Certaines de ces applications posent cependant des problèmes d'éthique ;
  • imparfaite mais en progrès pour l'automatisation de l'évaluation : détection des spams, « hate speechs » et plagiats, diffusion sélective, etc. Des erreurs étant inévitables, ces applications demandent un contrôle humain attentif ;
  • inadéquate pour la prédiction qu'il s'agisse de la récidive pour les criminels, de la performance d'un salarié, du risque terroriste, du comportement futur d'un enfant, etc. : les résultats sont douteux et posent en outre d'évidents problèmes d'éthique.

En rejetant les chimères nous risquons cependant de rejeter aussi ce que l’IA apporte de précieux : une réflexion sur le fond s’impose.

Épisode suivant : Éthique de l’IA
___
17 Caliskan, A., Bryson, J. J. et Narayanan, A., « Semantics derived automatically from language corpora contain human-like biases », Science, 356, 2017.
19 Jean-Paul Benzécri, L’analyse des données, Dunod, 1984.
21 « Une étude de l'ESCP sur près de 300 entreprises démontre que 9 % des collaborateurs s'arrachent pour faire avancer les choses, 71 % n'en ont rien à faire et 20 % font tout pour empêcher les 9 % précédents d'avancer » (Georges Épinette, Antémémoires d’un dirigeant autodidacte, CIGREF et Nuvis, 2016).
22 Ray Kurzweil, The Singularity is Near, Viking, 2005.
23 Arvind Narayanan, « How to recognize AI snake oil », Princeton University, 18 novembre 2019.

Ethique de l'IA

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent :  Place de l'IA dans l'informatisation

Des dangers illusoires sont évoqués à propos de l’informatisation et de l’IA : « trop d’information tue l’information », « l’automatisation supprime les emplois », etc. Depuis des siècles cependant les lecteurs doivent choisir leurs lectures parmi de nombreux livres, et par ailleurs l’informatisation n’a fait apparaître aucune inflexion dans les statistiques de l’emploi.

Le plus grand danger de l’IA réside cependant dans la possibilité d’estimer le diagnostic porté sur une personne à partir du constat de quelques symptômes, car elle offre au dictateur paranoïaque d’un régime totalitaire l’arme absolue de la répression. Les indiscrétions commises par la NSA24, la systématisation de la reconnaissance faciale et de l’observation des comportements en Chine, sont autant de manifestations de ce danger25.

Un autre danger réside dans une articulation défectueuse entre l’action humaine et l’automatisation, qui peut conduire à des catastrophes comme celle du Boeing 737 Max26 :
  • les directions générales sont souvent tentées de programmer l’action des agents humains comme s’ils étaient des automates, les privant ainsi du droit à l’initiative et à l’exercice de la raison raisonnable ;
  • les concepteurs d’un système d’information sont, symétriquement, souvent tentés de programmer la réponse de l’ordinateur à tous les incidents et accidents prévisibles, ce qui conduit leur projet à l’échec comme ce fut le cas pour le projet Louvois de calcul de la rémunération des militaires de l’armée française27.
Nous rencontrons ici des exigences éthiques. Pour les éclairer, il est utile de se rappeler que le mot « informatique » fusionne les mots « information » et « automate », en prenant le mot « information » au sens que lui donne Gilbert Simondon :
« L'information n'est pas une chose, mais l'opération d'une chose arrivant dans un système et y produisant une transformation. L'information ne peut pas se définir en dehors de cet acte d'incidence transformatrice et de l'opération de réception » (Gilbert Simondon, Communication et information, Éditions de la transparence, 2010, p. 159).
L’« information » est de ce point de vue le phénomène qui se produit lorsque la rencontre d’un document donne, à un système ou une personne capables de l’interpréter, la « forme intérieure » qui leur procure une capacité d’action. L’informatisation a ainsi fait émerger un être nouveau, le « cerveau d’œuvre » qui a vocation à remplacer la main d’œuvre dans l’emploi : après la symbiose de l’être humain avec la parole, puis avec l’écriture, notre époque réalise sa symbiose avec l’ordinateur qui a été prévue dès la fin des années 50 par le psychologue Joseph Licklider :
« The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today. »
(Joseph Licklider, « Man Computer Symbiosis », IRE Transactions on Human Factors in Electronics, mars 1960).
L’organisation d’une institution doit pour être efficace assurer une synergie des cerveaux d’œuvre dans l’action collective. Cela suppose une réflexion approfondie28 sur les conditions pratiques de la mise en œuvre de l’intelligence « à effet différé » incorporée dans les programmes informatiques et associée dans l’action à l’intelligence « à effet immédiat » des agents opérationnels : elle implique d'automatiser ce qui doit l'être et seulement ce qui doit l'être. Cette réflexion est cependant trop rare, car les entreprises adhèrent encore à une forme d'organisation désuète :
« Les approches bureaucratiques ignorantes de la nature du travail cherchent à éliminer toute pensée, activité coûteuse dont la rentabilité n'est pas immédiatement perceptible. D'où l'échec que le « perfectionnement » des procédures ne fera qu'amplifier. L'application trop systématique d'idées parfaitement logiques peut engendrer des catastrophes » (Laurent Bloch, Systèmes d'information, obstacles et succès, Vuibert, 2005).
Rares sont actuellement les entreprises qui articulent raisonnablement les deux formes de l'intelligence29 : la plupart des « systèmes d'information » présentent des défauts évidents30 :
  • la qualité des données est défectueuse et leur signification est altérée par des synonymes et des homonymes : c'est comme nous l'avons vu un des plus grands obstacles pour l'IA ;
  • l'informatisation des processus se limite trop souvent à graver dans le marbre les défauts du processus existant (erreurs d'adressage, délais aléatoires dus à des piles LIFO (Last In, First Out.) sur les bureaux, redondances, etc.) ;
  • enfin et surtout le contrôle du travail est poussé à l'extrême, stérilisant l'initiative et la responsabilité des agents :
« Théoriquement l'informatisation devait faciliter le travail, mais en réalité elle a poussé les managers à opprimer les agents opérationnels avec des contrôles et une optimisation continus. Les ordinateurs, robots et algorithmes ne sont pas à notre service, c'est nous qui devons les servir. Ils mesurent tout ce que nous faisons et calculent pour voir s'il est possible de nous exploiter encore davantage. Les managers se focalisent sur l'idée de produire ou livrer les biens et les services plus rapidement et pour un moindre coût. Mais on ne mesure que ce qui est mesurable. On ne sait pas quantifier la qualité de la relation des agents avec les clients : établir la confiance demande du temps. Tout exprimer sous la forme de règles et de normes, cela empêche assurément l'innovation32. » (Gunter Dueck, « Sklaven der Prozesse », Der Spiegel, 8 février 2020.)
Tout se passe comme si notre époque, notre société, nos institutions refusaient de comprendre le phénomène de l'informatisation : elles le masquent en utilisant un vocabulaire inexact (« numérique », « digital »), elles refusent de redéfinir la mission et l'organisation des institutions, elles refusent aussi de se plier aux conditions nécessaires de l'efficacité dans un monde que l'informatique a transformé. L'intelligence artificielle, telle qu'elle s'est déployée en plusieurs étapes séparées par autant d'« hivers », est l'une des manifestations les plus hardies, les plus inventives de l'informatisation. Les difficultés qu'elle rencontre ne peuvent être comprises et surmontées que si on sait les situer et les interpréter en revenant à l'intuition fondatrice de Turing et dans le cadre conceptuel plus général de l'informatique.

Épisode suivant : Futur de l'IA
 ___  
25 CNIL, « Reconnaissance faciale : pour un débat à la hauteur des enjeux », 15 novembre 2019.
26 Jack Nicas, Natalie Kitroeff, David Gelles et James Glanz, « Boeing Built Deadly Assumptions Into 737 Max, Blind to a Late Design Change », The New York Times, 1er juin 2019, .  
27 Philippe Reltien, « Des milliers de soldats français endettés à cause de Louvois, leur logiciel de paie », France Culture, 26 janvier 2018.  
28 Michel Volle, iconomie, Economica, 2014.  
29 Gunter Dueck, Heute schon einen Prozess optimiert? Das Management frisst seine Mitarbeiter, Campus, 2018.  
30 Michel Volle, « Système d'information », Encyclopédie des techniques de l'ingénieur, juillet 2010, .  
32 « Theoretisch sollte die Digilitasierung uns das Arbeiten erleichtern, aber in der Realität führt sie dazu, dass das Management seine Mitarbeiter mit Dauerkontrollen on ständiger Optimierung quält. Die Computer, die Roboter und Algorithmen dienen nicht uns – wir dienen ihnen. Sie messen alles, was wir tun, und berechnen, wie sie noch mehr aus uns rausholen können. Die Manager sind fixiert auf die Idee, Produkte oder Dienstleistungen immer schneller und billiger herzustellen oder zu liefern. Aber es wird eben nur das gemessen, wa messbar ist. Es lässt sich nicht quantifizieren, ob die Chemie zwischen Mitarbeiter und Kunden stimmt : Vertrauen braucht Zeit. Wird alles in Normen und Regeln gepresst, verhindert das zuverlässig jede Innovation. »

Futur de l'IA

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent : Éthique de l’IA

Quel est, dans la situation présente, le ressort qui propulse l'IA vers son futur ?

Il est peu probable que la troisième IA puisse connaître un « hiver » comparable à celui des deux premières, car une fois étalonnée et contrôlée elle procure une estimation du diagnostic (qu'il faudra cependant encore savoir interpréter à la lumière de la théorie du domaine observé). Son utilisation pour évaluer des textes, des images, etc., moins efficace, exigera plus encore l'effort d'interprétation. Il est enfin vraisemblable que l'on renoncera à utiliser l'IA pour faire des prédictions car les déceptions s'accumulent.

Il est vraisemblable aussi que les charlatans ne parviendront plus dans quelques années à vendre leur « snake oil » car l'apport et la nature de l'IA auront été mieux compris : les imaginaires ne seront plus aussi facilement qu’aujourd’hui hantés par des chimères.

Les obstacles sociologiques et culturels que rencontre l'informatisation finiront par être surmontés, comme le furent en leur temps les obstacles que rencontrait la mécanisation, même si cela prend du temps.

Écoutons les leçons qui ont été tirées d'une des performances les plus impressionnantes de l'IA : la victoire de Deeper Blue contre le champion du monde des échecs en 1997. Gary Kasparov estime avoir été vaincu non par une intelligence, mais par la « force brute » de la machine :

« [The IBM machine] was anything but intelligent. It was as intelligent as your alarm clock. A very expensive one, a 10 million dollars alarm clock, but still an alarm clock. Very poweful – brute force, with little chess knowledge. But chess proved to be vulnerable to the brute force: it could be crunched once hardware got fast enough and databases got big enough and algorithms got smart enough. »
(Gary Kasparov et Mig Greengard, Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins, Public Affairs, 2017).

L'expérience a conduit les praticiens et chercheurs à la conclusion suivante :

« The strongest chess player today is neither a human, nor a computer, but a human team using computers »
(Devdatt Dubhashi et Shalom Lappin, « AI Dangers: Imagined and Real », Communications of the ACM, février 2017).

Cette conclusion a une portée générale : l'organisation la plus efficace est celle qui s'appuie non sur la seule « intelligence » de l'ordinateur, mais sur le « cerveau d’œuvre33 » qui résulte de la symbiose du cerveau humain individuel avec l’ordinateur évoquée par Licklider, complétée par une organisation de la synergie des cerveaux d’œuvre.

Alors que la réflexion sur l'IA est aujourd'hui focalisée sur la conception des algorithmes, domaine de recherche en pleine progression, elle devra se focaliser sur la relation qui existe, dans l'action productive, entre l'intelligence à effet différé et l'intelligence à effet immédiat : la mise en œuvre d'une IA suppose d'ailleurs déjà l'investissement d'une intelligence humaine pour contrôler les données, réaliser et vérifier l'étalonnage lors de sa conception, puis pour interpréter les résultats lors de son utilisation.

Cette évolution demandera quelques décennies car elle suppose une transformation des habitudes, de la culture et des valeurs34 qui implique de redéfinir la mission des institutions et de remodeler leur organisation.

Enfin on peut prévoir que le déploiement de l'informatisation offrira à l'IA des terrains nouveaux :
  • l'impression 3D et le « 3D scanning » forment un couple de techniques qui permet à des « choses » (êtres inanimés dotés d'une masse et d'un volume) de traverser dans les deux sens la frontière de l'écran en étant associées à leur « image virtuelle » ;
  • l'« Internet des objets35 » associe à chaque « chose » un URI (Uniform Resource Identifier) porté par une puce RFID (Radio Frequency Identification) ;
  • la blockchain, le chiffrement, les « cryptomonnaies36 » ouvrent la perspective d'une transformation profonde de l'économie.

Alors que l'informatisation a d'abord concerné la relation entre les êtres humains et les documents (textes, images, programmes, etc.), puis s'est étendue avec la robotique à l'automatisation de l'action productive sur les « choses », elle va s'étendre ainsi à la relation des êtres humains avec les « choses », des « choses » avec l'ordinateur, enfin des « choses » entre elles.

Déjà l'impression 3D s'impose dans les usines et pour la fabrication des prothèses, car elle permet de produire de façon personnalisée des « choses » présentant le meilleur compromis entre la solidité et la légèreté.

L’Internet des objets nécessite des modèles d’affaire et des formes de coopération qui impliquent une adaptation de l’organisation et des processus de production, de la gestion et de la gouvernance des entreprises. Dès aujourd'hui diverses applications offrent autant de terrains à l'IA :
  • télécommunications : puces SIM des téléphones mobiles, géolocalisation ;
  • vétérinaire : marquage des bovins, des équidés, des animaux domestiques ;
  • santé : suivi des équipements, des patients, contrôle des médicaments, gestion des traitements, projet de dossier médical partagé (DMP), sécurité et confidentialité des données ;
  • documents d’identité : passeport biométrique, badges d’accès, cartes bancaires, cartes de fidélité ;
  • transport : systèmes de paiement (autoroutes, Navigo, Velib) ;
  • loisirs et culture : billetterie, contrôle des accès, etc.

Enfin un autre terrain sera offert par une « cryptomonnaie » comme la Libra :
  • elle sera utilisée en Inde et en Afrique, zones faiblement bancarisées mais équipées de téléphones mobiles ;
  • elle sera mise à profit pour épargner dans les pays frappés par l’inflation, ou encore dans les pays développés en raison de sa commodité ;
  • elle permettra de rémunérer les autorisations accordées par les utilisateurs pour exploiter leurs données personnelles ou la cession à des laboratoires pharmaceutiques de leur dossier de santé anonymisé ;
  • les utilisateurs seront incités, grâce à des « apps » partenaires, à répondre à des enquêtes, laisser leur avis sur un lieu touristique, partager la capacité de leur disque dur et la production de leur panneau solaire, faire du covoiturage, louer leur perceuse, contribuer aux équivalents de YouTube et de Wikipédia…

FIN
___
33 Michel Volle, iconomie, Economica, 1914.
34 Michel Volle, Valeurs de la transition numérique : Civilisation de la troisième révolution industrielle, Institut de l'iconomie, 2018.
35 Pierre-Jean Benghozi, Sylvain Bureau et Françoise Massit-Folléa, L’Internet des objets, MSH, 2009.
36 Vincent Lorphelin, « L’économie mondiale est sur le point d’être transformée avec la cryptomonnaie de Facebook », Le Monde, 20 juin 2019.

jeudi 27 février 2020

Pensée rationnelle et pensée raisonnable

La pensée du chasseur-cueilleur, dont nous sommes génétiquement les héritiers, a pour fonction de fournir les moyens d’agir1 face à une situation qu’elle représente, de façon schématique et en faisant abstraction du reste du monde réel, à travers la construction mentale que constituent une grille conceptuelle et des hypothèses.

Il est en effet impossible de penser entièrement et complètement l’objet réel le plus modeste (une tasse de café, par exemple) : son histoire est énigmatique, son futur est imprévisible, les atomes qui composent ses molécules sont imperceptibles. Il est a fortiori impossible de penser entièrement le monde réel, ensemble des objets réels. Mais il suffit, pour revenir à l’exemple ci-dessus, de savoir se servir de la tasse de café : l’action peut et doit faire abstraction de la complexité du monde réel.

La pensée comporte deux étapes :
  • l’une, constructive, est celle pendant laquelle la construction théorique est formée pour répondre à une situation : des hypothèses reprennent ses traits fondamentaux (exemple : l’axiome d’Euclide convient pour représenter l’espace de la vie quotidienne), la grille conceptuelle permet de percevoir et de qualifier les êtres qui s’y manifestent ;
  • l’autre, active, est celle où l’action bénéficie de la puissance que la théorie apporte au cerveau humain : justesse de la perception, rapidité des réflexes, etc.

L’étape constructive confronte la pensée au « monde réel », dont elle soumet la complexité à un effort d’abstraction pour dégager des concepts et hypothèses pertinents en regard de la situation. L’étape active se déroule dans le « petit monde » que définit une théorie, monde étroitement adapté à la situation que l’action considère : l’efficacité se paie par cette étroitesse qui lui est d’ailleurs nécessaire.

Chaque spécialité professionnelle se dote ainsi d’un « petit monde » qui lui fournit les concepts et hypothèses sur lesquels s’appuiera l’action ; chaque institution, chaque entreprise se dote elle aussi d’un « petit monde », celui de son organisation et de ses procédures. La vie quotidienne des personnes, enfin, se déroule dans divers « petits mondes » correspondant chacun à l’une des situations qu’elles traversent : conduire une automobile, faire la cuisine, écrire une lettre, etc. : il ne leur est pas toujours facile, lorsqu’elles passent d’une situation à l’autre, de trouver rapidement leurs repères en passant d’un « petit monde » à l’autre.

*     *

Certes, nous nous sommes écartés ici de l’usage courant des mots comme des images qui leur sont accolées. On croit communément que la théorie n’a rien à voir avec l’action, qu’elle est l’affaire de « théoriciens » qui n’ont pas l’esprit pratique ; on croit aussi qu’une action de la vie quotidienne, comme conduire une automobile, n’a rien à voir avec la théorie, l’abstraction, etc.

Le fait est pourtant qu’un conducteur doit voir ce qui importe à la conduite (route, obstacles, signalisation, autres véhicules, etc.) et ne pas voir ce qui pourrait le distraire, donc en faire abstraction. Cet exemple a une portée générale : se former à une action (ici, apprendre à conduire) c’est acquérir une grille conceptuelle et des hypothèses, c’est-à-dire la théorie qui définit le « petit monde » qui permettra d’agir de façon réflexe.

L’action judicieuse et rapide du professionnel formé et expérimenté (chirurgien, pilote, ingénieur, etc.) résulte d’une assimilation de la théorie qui lui permet de court-circuiter les étapes du raisonnement : cette action n’est pas celle du théoricien qui produit une théorie, mais celle du praticien qui la met en œuvre. Cette efficacité professionnelle et pratique s’accompagne cependant de divers risques.

Le monde réel existe en effet : il est présent devant l’action tout en étant extérieur au « petit monde » dans lequel elle est conçue, et sa présence se manifeste par des phénomènes imprévus ou même imprévisibles : pannes, incidents, accidents, comportements, etc., confrontent à l’occasion les personnes à une situation autre que celle à laquelle leur « petit monde » répondait.

lundi 6 janvier 2020

Réindustrialiser la France par l'informatisation et l'automatisation (3/3)

"Le rôle stratégique des assembleurs"
Entretien avec Laurent Faibis sur Xerfi Canal.



Transcription de l'entretien :

Laurent Faibis : Vous avez prononcé tout à l'heure le mot « assemblage ». Produire, aujourd'hui, c'est assembler une gigantesque chaîne de production au niveau mondial, c’est assembler les aspects matériels et les aspects serviciels d'un produit. Il y a donc des entreprises qui doivent jouer ce rôle d'assembleur et elles ont parfois un rôle presque féodal par rapport à leurs sous-traitants, dans le meilleur des cas elles sont à la tête d'un réseau de partenaires.

Michel Volle : Effectivement vous avez tout à fait raison. Il y a en fait deux assemblages : l'assemblage des biens et des services qui forment le produit, l'assemblage des partenaires qui coopèrent à l'élaboration de ce produit en apportant chacun la partie qu’il maîtrise.
La cohésion de ces deux assemblages - l'assemblage à l'intérieur du produit et l'assemblage des partenaires pour l'élaborer - est assurée par un système d'information. C'est le système d'information qui permet aux partenaires de coopérer, d'automatiser les transactions qu'ils ont entre eux, d'ailleurs de surveiller aussi la transparence du partage des recettes et dépenses qui est un des éléments très importants de la solidité du partenariat : lorsqu’on n'assure pas cette transparence le partenariat tend à exploser parce qu'il se produira des fraudes, ou en tout cas ils auront l'impression que des fraudes se sont produites et ça mène au divorce. J'ai vu ça quand je travaillais dans le transport aérien, il était extrêmement difficile de maintenir la cohésion d'un partenariat si on n'avait pas assuré la transparence dans les échanges d'informations.

Laurent Faibis : Soit l'information va dans les deux sens, soit un des acteurs a une information privilégiée.

Réindustrialiser la France par l’informatisation et l’automatisation (2/3)

"Vers une industrie servicielle"
Entretien avec Laurent Faibis sur Xerfi Canal.



Transcription de l'entretien :

Laurent Faibis : L’un des plus grands producteurs de produits électroniques chinois, en l'occurrence Foxconn, annonce qu’en raison de la hausse des salaires il souhaite robotiser et automatiser.

Michel Volle : Il a annoncé effectivement qu'il allait acheter plusieurs dizaines de milliers de robots.

Laurent Faibis : Mais je reviens sur ce qui s'est passé à partir des années 90, dans les années 90 et 2000. Finalement cette possibilité d'utiliser du travail à bon marché au lieu d'investir dans l'automatisation et l'informatisation a conduit à une stratégie de sous-investissement.

Michel Volle : Ça a freiné un mouvement nécessaire. Ce qui est dans la logique de cette évolution du système productif, c'est l'émergence d'une économie ultra-capitalistique.
Les économistes aiment bien utiliser des modèles où il y a une fonction de production avec deux facteurs de production qui sont le capital et le travail, le « capital » étant du travail stocké, du travail accumulé ou comme on dit du « travail mort », et le « travail » étant le flux de « travail vivant » nécessaire pour la production. Eh bien l'automatisation donne une part très importante au capital, non pas au capital financier mais au capital sous la forme de travail stocké : les automates, les robots, les programmes informatiques, l'organisation, enfin tout ce que l'on doit faire avant de produire. L'intervention du travail dans le flux de la production elle-même devient minime puisqu'il se réduit à quelque supervision et à de la maintenance.

Laurent Faibis : Ça ce n’est pas une usine chinoise des années 90 ou 2000.

Michel Volle : Oui mais ça le devient, donc c'est peut-être pas le modèle exact de l'entreprise d'aujourd'hui mais je dirais que c'est la cible, c'est l'horizon de l'entreprise contemporaine, c'est-à-dire de celle qui répond de manière raisonnable, de manière intelligente, au changement de système technique tel qu'il se produit.
C'est une contrainte physique, notre rapport à la nature a changé, nous n'avons plus la même façon de nous comporter vis-à-vis des ressources naturelles que nous voulons transformer en produits. Le fait de d'utiliser l'informatique, d'utiliser les automatismes, modifie notre façon d'agir, modifie aussi notre façon de penser, ça a énormément de conséquences anthropologiques, ça change réellement les conditions pratiques du système productif.
Il est inconcevable que ce phénomène ne soit pas perçu, ça me paraît incroyable tellement cette évidence crève les yeux : les conditions physiques de la production ont changé, les conditions physiques, pratiques, matérielles. Ce n’est pas de l'idéologie, c'est un constat pur et dur dont il faut tirer les conséquences.

Réindustrialiser la France par l'informatisation et l'automatisation (1/3)

"La globalisation a retardé la révolution du système productif"
Entretien avec Laurent Faibis sur Xerfi Canal.



Transcription de l'entretien :

Laurent Faibis : Tous les candidats à l'élection présidentielle ont mis à leur programme la réindustrialisation de la France, voire le retour au « made in France », mais à les écouter on sent bien qu'ils n'ont qu'une idée très vague des réalités de l’usine du XXIe siècle, de la réalité des process de production et de la réalité de ce que c'est qu'un produit aujourd'hui.

Michel Volle : Pourtant il est assez facile si on visite simplement une usine de se rendre compte que tout est fait par des robots à peu de choses près. Il y a quelques superviseurs, quelques équipes de maintenance, mais en fait beaucoup de choses sont automatisées. Toutes les tâches répétitives sont automatisées, qu'il s'agisse d'ailleurs des tâches manuelles ou des tâches intellectuelles, et donc l'entreprise d'aujourd'hui n'a plus grand-chose de commun avec l'image que l'on a conservée de l'entreprise industrielle d'autrefois, où des milliers d'ouvriers accomplissaient à longueur de journée des tâches répétitives. Cette image est celle sans doute qui reste dans la tête des politiques qui ont rarement mis les pieds dans une usine, ou en tout cas s'ils y ont mis les pieds c'était pour des visites officielles assez superficielles, et donc ils n'ont pas vu cette transformation très profonde du système productif qui réside dans l'automatisation des tâches répétitives.

Laurent Faibis : Alors cette révolution du système productif c'est ce que nous allons aborder aujourd'hui de façon approfondie. Michel Volle en quelques mots vous êtes polytechnicien vous êtes aussi, et vous y tenez beaucoup, docteur en histoire, vous êtes un ancien administrateur de l'INSEE vous avez été consultant, chef d'entreprise, auteur de nombreux ouvrages sur la statistique, l'analyse des données, les nouvelles technologies avec iconomie, un ouvrage sur l'informatique, un roman Le parador, et vous êtes blogueur sur le site volle.com. Vous venez d'ailleurs de publier sur votre site volle.com une lettre ouverte aux présidentiables pour les interpeller justement sur ce thème de leur méconnaissance de l'industrie. Selon vous l’informatisation des process de production est le moteur d'une nouvelle révolution industrielle : dans les années soixante dix nous avons véritablement changé de système technique.

mercredi 25 décembre 2019

Bertrand Gille et son Histoire des techniques

Bertrand Gille a publié l’Histoire des techniques en 1978 dans la collection de la Pléiade. Ce livre n’a pas été réimprimé depuis et il coûte cher chez les bouquinistes. C’est grand dommage car il mérite de nombreux lecteurs.

Bertrand Gille a proposé de voir l’histoire à travers une succession de systèmes techniques : à chaque époque la synergie de quelques techniques fondamentales suscite un édifice institutionnel qui, structurant l’ensemble de la vie sociale, favorise une économie spécifique. Quand apparaissent de nouvelles techniques permettant une nouvelle synergie, un autre système technique se met en place, appuyé sur un nouvel édifice institutionnel.

Bertrand Gille distingue ainsi diverses civilisations techniques : le néolithique ; les systèmes des premiers grands empires, Égypte et Mésopotamie ; celui des Grecs, puis des Romains ; celui du Moyen Âge ; le « système classique » qui se déploie à partir de la Renaissance ; le « système moderne » qu’apporte à la fin du XVIIIe siècle la première révolution industrielle ; le « système moderne développé » à partir de la fin du XIXe siècle ; enfin un « système technique contemporain » à partir des années 1970.

L’évolution économique de la société suit lors de chacune de ces époques une courbe en S : le nouveau système technique s’installe d’abord lentement, puis commence une phase de croissance pendant laquelle son potentiel est mis en exploitation, enfin la croissance ralentit lorsque ce potentiel s’épuise. La succession des époques se présente comme une suite de ces courbes en S.

*     *

Le schéma de Bertrand Gille éclaire ce qui s’est passé après les trois révolutions industrielles que l’on peut dater approximativement de 1775, 1875 et 1975.

La première révolution industrielle est celle de la mécanisation, avec des machines en acier plus robustes et plus précises que les machines en bois, en synergie avec les progrès de la chimie. Elle fait naître l’industrie textile et la sidérurgie, transforme le transport avec les chemins de fer et les bateaux à vapeur.

Cette révolution technique est aussi une révolution sociale : le pouvoir de la bourgeoisie supplante celui de l’aristocratie, une classe ouvrière nombreuse se crée. De ce bouleversement résulte un désarroi qu’exprimera le romantisme.

La deuxième révolution industrielle ajoute à la mécanique et la chimie la maîtrise de l’énergie avec l’électricité et le pétrole, plus commodes que le charbon. Alors que la puissance de la machine à vapeur était transmise aux machines par un arbre de transmission collectif, le moteur électrique s’accouple à chaque machine. Cela transforme et l’organisation de l’usine, tandis que le moteur à combustion interne transforme la logistique. Les courants faibles se prêtent au transport de l’information (télégraphe, puis téléphone) et à son traitement (mécanographie).

Les entreprises, jusqu’alors été de taille modeste, deviennent immenses (Standard Oil, Carnegie Steel, etc.) et leur organisation exige des ingénieurs et des administrateurs : l’ascenseur social par les études s’amorce. Le bouleversement de la société provoque une épidémie de troubles psychologiques (hystérie, névrose) à laquelle répondra la psychanalyse : une pulsion suicidaire collective sera sans doute la cause la plus profonde des deux guerres mondiales. Il faudra attendre les « trente glorieuses » du deuxième après-guerre pour que l’économie connaisse une période continue de croissance.

La troisième révolution industrielle, celle de l’informatisation, met en exploitation la synergie du logiciel, de la microélectronique et de l’Internet. Cette synergie entièrement nouvelle apporte des phénomènes d’une ampleur comparable à ceux des révolutions industrielles précédentes, les travaux sur l’iconomie les ont décrits en détail : mise sous tension de la mission et de l’organisation des institutions, transformation des produits et de la façon de produire, mondialisation, prédation financière et, de nouveau, désarroi devant le bouleversement de la vie en société.

L'intelligence créative

La créativité est un mystère. Comme nous tendons spontanément à reproduire nos conditions d’existence nous sommes tous fondamentalement conservateurs, même ceux qui se qualifient de « révolutionnaires ». Comment se fait-il que nous puissions pourtant évoluer ?

Dans toute entreprise, dans toute institution, les forces conservatrices luttent pour assurer la pérennité de l’organisation et la plupart des dirigeants ne comprennent rien aux nouveautés. Le raisonnement économique ne suffit pas à expliquer qu’il se produise des innovations : pour que l’entreprise se lance dans un projet nouveau il ne suffit pas que l’innovation lui semble rentable, il faut aussi que cette rentabilité potentielle ait été comprise ou du moins entrevue. Comment des dirigeants « qui ne comprennent rien aux nouveautés » peuvent-ils pourtant, finalement, comprendre l'intérêt d'une invention ?

Ces deux mystères sont analogues à celui auquel nous confronte l’évolution des espèces. Si les parents transmettent leurs gènes à leurs enfants, comment se fait-il qu’une espèce puisse évoluer, que les formes que prend la vie puissent se diversifier ? La réponse, on le sait, réside dans les mutations aléatoires : les gènes ne sont pas toujours transmis à l’identique.

La plupart des mutations sont nocives et leurs porteurs disparaissent. Quelques-unes cependant sont tellement positives que leurs porteurs seront avantagés dans la concurrence pour la reproduction : d’où l’évolution.

Ne se produit-il pas dans notre esprit, dans nos institutions, un phénomène analogue à celui-ci, et qui expliquerait à la fois la créativité de la pensée chez l'individu, et l'innovation dans l'entreprise ?

*     *

Nous croyons que la pensée réside tout entière dans les concepts et relations logiques entre concepts, et qu’elle est donc tout entière explicite. Le fait est que l’éducation, l’expérience, l’habitude, nous dont dotés de la grille conceptuelle à travers laquelle nous voyons le monde. Cette grille est nécessaire à l’action mais le « petit monde » qu’elle permet de voir est étroit en regard de la complexité sans limite du monde réel : nos connaissances sont comme un cercle lumineux, entouré par un plan infini et obscur.

« Ce qui se conçoit bien s’énonce clairement », disait Boileau. C’est faux ou plutôt incomplet : nous concevons bien le visage de l’être aimé mais il n’est pas possible d’« énoncer » un visage. Avant que la pensée ne s’explicite en concepts, qu’elle ne se mette en forme, elle tâtonne dans l’obscurité pour prendre un contact intuitif avec le monde réel et tenter de sortir des limites du « petit monde ».

L’association d’idées, qu’il convient certes de bannir de la pensée explicite et rationnelle, est le moteur de cette phase préconceptuelle de la pensée : elle est comme l’engrais que nous ne mangeons pas mais qui nourrit les plantes qui nous alimentent.

Dans les moments de détente et de rêverie qui précèdent ou suivent le sommeil, lorsque nous nous laissons aller, des idées, images et impulsions se succèdent dans notre esprit : la glande cérébrale les produit spontanément tout comme les glandes endocrines sécrètent des hormones. Le cerveau humain est le lieu naturel de naissance des idées nouvelles.

L’association d’idées n’obéit pas à un ordre logique. Suscitée par l’assonance des mots, par la ressemblance des images, elle suit des chemins aléatoires en regard de l’ordre des choses : elle est comme la main qui bat un jeu de cartes.

Parmi les idées, les images qui défilent ainsi dans notre esprit, la plupart n’ont aucun intérêt : elles seraient aussi nocives que ne le sont la plupart des mutations génétiques. Quelques-unes, rares, sont potentiellement fécondes : elles ont mis en rapport des choses qu’il serait utile de rapprocher, suggéré la démarche ingénieuse à laquelle on n’aurait jamais pensé si l’on était resté enfermé dans la rationalité de la grille conceptuelle, proposé des principes dont il sera possible de tirer une moisson de conséquences.

Pour repérer, dans le flot d'idées que produit spontanément la glande cérébrale, celles qui sont potentiellement fécondes, il faut faire un tri : c'est le rôle de l’intelligence créative, qui suppose de la méthode, une sensibilité d’un type particulier et l'intervention de la mémoire.

samedi 23 novembre 2019

Les épisodes qualitatifs de la statistique

Beaucoup de personnes refusent de prendre en considération les raisonnements qui ne s’appuient pas sur des données quantitatives. Jean-Marc Jancovici a commenté ainsi un article de l’Institut de l’iconomie1 : « j'essaie d'être sur un terrain quantitatif, ce texte est essentiellement qualitatif, je n'ai donc pas d'avis sur la question ». L’économiste néerlandais Bart van Ark, qui a participé avec moi à la rédaction d’un ouvrage2, refusait lui aussi d’entendre un raisonnement s’il n’était pas fondé sur des statistiques.

Nombre d’articles contiennent des tableaux de nombres et des calculs économétriques impressionnants, censés fournir la preuve de l’objectivité du travail et de la solidité de ses conclusions. Mais la publication statistique, quand elle est sérieuse, vise à éclairer le lecteur et non à l’impressionner3 : elle s’applique donc à présenter les résultats les plus significatifs sous une forme lisible (petits tableaux, graphiques sélectifs), à les commenter, à les expliquer enfin en se référant à la théorie du domaine observé et en recourant avec prudence à l’économétrie pour l'analyse les corrélations.

Le raisonnement s’appuie alors sur des ordres de grandeur car la précision des nombres est illusoire : la population de la France au 1er janvier 2019 est ainsi selon l’INSEE4 de 66 992 699 personnes mais cette estimation est entourée d’un flou d’au moins 1 %, soit 600 000 personnes5 : il faut ne retenir que son ordre de grandeur, 67 millions.

Il arrive que l’ordre de grandeur soit lui-même douteux : nombre des données des comptes nationaux sont estimées, en l’absence d’une observation, selon des méthodes qui introduisent un biais (solde, règle de trois, arbitrage, etc.) et ceux qui appuient sans précautions un travail économétrique sur une telle source risquent d’en tirer des conclusions erronées.

La plupart des conclusions qui s’imposent à l’issue d’un travail quantitatif sont en outre qualitatives : tel projet est rentable, ou ne l’est pas ; le chômage croît, ou diminue ; la croissance accélère, ou ralentit ; telle couche de la population est plus ou moins à l’aise qu’une autre, etc.

Enfin le raisonnement qui s’enferme dans le cercle que la statistique éclaire ignorera ce qui se trouve à l’extérieur. On connaît la fable de l’homme qui cherche son trousseau de clés sous un réverbère : « est-ce par ici que vous l’avez perdu ? », lui dit-on. « Non, répond-il, mais au moins ici j’y vois clair ».

Il ne convient donc pas de refuser le rapport qualitatif des explorateurs qui sont sortis de ce cercle pour observer des phénomènes importants, mais que la statistique n’observe pas.

mercredi 30 octobre 2019

Pierre-Yves Gomez, L'esprit malin du capitalisme, Desclée de Brouwer, 2019

Je viens de terminer la lecture de "L'esprit malin du capitalisme". Cette lecture est un plaisir : ce livre est bien écrit et il m'a appris des choses utiles.

Pierre-Yves Gomez décrit l'origine, le mécanisme et les conséquences de la financiarisation des entreprises, ainsi que la façon dont la spéculation s'est emparée des esprits. Je connaissais comme tout le monde la prédation qu'exercent les fonds de pension sur le système productif mais j'ignorais son origine (la loi ERISA du 2 septembre 1974 aux États-Unis). L'acquisition d'une telle connaissance justifierait à elle seule l'achat du livre !

Le milieu de la décennie 1970 est une charnière dans l'histoire : c'est le début de l'informatisation des entreprises, du passage d'un système technique à l'autre, du triomphe de la doctrine néolibérale et de la concentration du pouvoir financier. La concomitance de ces événements et la cohérence qui les relie (elle n'a assurément été ourdie par aucune volonté consciente) témoignent de la puissance des mécanismes impensés de la sociologie des institutions.

Pierre-Yves Gomez décrit dans son chapitre 4 la "technologie spéculative", l'emballement des anticipations qui spéculent sur un Avenir disruptif. Cet emballement n'est pas propre à notre époque : il s'est également produit après chacune des révolutions industrielles (à la charnière des XVIIIe et XIXe siècles, puis des XIXe et XXe siècles). Il est compréhensible que des possibilités effectivement nouvelles enflamment les imaginations et suscitent des comportements semblables à ceux des joueurs dans un casino.

Pierre-Yves Gomez a raison de critiquer les illusions à propos de la "disruption", mais si ces illusions sont critiquables il faut aussi reconnaître la part de réalité que ce mot recouvre : il se produit bien en effet des "disruptions" dans la production, le commerce, le transport et jusque dans le monde de la pensée...

Il évoque aussi, trop brièvement pour mon goût et seulement dans l'épilogue, la résistance que le sérieux professionnel, le goût du travail bien fait, le souci de la qualité du produit et de la satisfaction du client peuvent opposer à la pression de la financiarisation et des reportings : il ne me semble pas avoir suffisamment creusé la dialectique des dimensions physique et financière de l'entreprise, la dynamique conflictuelle qui en résulte, les possibilités et les dangers qu'elle déploie et qui procurent aujourd'hui, peut-être, son théâtre à un nouvel épisode de la sociologie des institutions.

Cette réserve n'enlève cependant rien à l'intérêt de son livre et à la profondeur philosophique de ses analyses (cf. son chapitre 15).

mercredi 9 octobre 2019

L'iconomie dans la science économique

Lire l’œuvre d’un économiste créatif, c’est assister à la rencontre d’une intention et d’une situation économique.

La situation est celle d’une époque, d’un pays ou d’un continent, caractérisée par l’état du système technique1 (ou, comme on dit, des « forces productives »). Elle est donc évolutive et diverse. L’intention est par contre toujours la même : il s’agit de construire la théorie hypothétique et schématique, le « modèle », qui permettra de penser la situation pour fournir des repères et une orientation à l’action stratégique2.

Ainsi Adam Smith a produit en 1776 la théorie qui éclairait le phénomène émergent de la mécanisation ; David Ricardo a en 1817 schématisé l’échange entre les nations ; Léon Walras a résolu en 1874, avec le modèle de l’équilibre général, l’énigme que présentait l’émergence de l’économie moderne ; John Hicks a, dans le sillage de Keynes, répondu à la crise des années 1930 en introduisant une théorie des anticipations qui tenait compte de l’incertitude du futur, etc.

Chacune de ces théories, chacun de ces modèles, attirent l’attention comme le font les bâtiments que l’histoire nous a légués : on peut admirer leur architecture et apprécier l’ingéniosité des architectes. La démarche de ces grands économistes est donc riche d’enseignements.

Nous pouvons, nous devons nous en inspirer pour penser la situation économique présente. Elle diffère en effet de celles qui l’ont précédée : le système technique, qui s’appuyait jusque vers 1975 sur la synergie de la mécanique, de la chimie et de l’énergie, s’appuie désormais sur celle de la microélectronique, du logiciel et de l’Internet. Il en est résulté une transformation de la production, des produits, du travail, des organisations, de la concurrence, etc.

vendredi 27 septembre 2019

Edward Snowden, Mémoires vives, Seuil, 2019

Nombreuses sont les personnes qui, trouvant facile l'utilisation de leurs ordinateur, tablette et téléphone "intelligent", croient que l'informatique est quelque chose de tout simple et même d'un peu bête. C'est que les informaticiens ont tout fait pour présenter aux utilisateurs des interfaces commodes et cacher une complexité qui ne se manifestera que lors des pannes et incidents.



La lecture du livre de Snowden offre un voyage dans le monde de l'informatique et ce sera pour certains une révélation : le lecteur attentif est en effet convié à traverser son architecture, depuis les câblages et soudures jusqu'aux processeurs, langages, protocoles, réseaux, chiffrements, etc., le tout présenté dans l'ordre où Snowden l'a rencontré et donc de façon naturelle, claire et très intelligente.

*     *

Edward Snowden, alors âgé de 29 ans, a quitté la NSA en 2013 en emportant de quoi prouver qu'elle se livrait à la surveillance de masse1 qui expose l'intimité de chaque personne à la curiosité indiscrète des États et donc, éventuellement, à des pressions et chantages.

Il avait découvert l'informatique alors qu'il n'était qu'un enfant, l'Internet des années 1990 lui avait offert un terrain de jeu, de liberté et d'expertise.

Comme beaucoup d'autres Américains, il voulut servir son pays après l'attentat du 11 septembre 2001. Une blessure mit fin à son engagement dans l'armée. Ses talents d'informaticien le rendirent ensuite utile à la CIA et à la NSA. Étant administrateur système, il eut accès à des informations que leur confidentialité réservait à des personnes d'un grade très supérieur au sien.

Il découvrit alors que l'informatique et l'Internet, dans lesquels il avait vu des instruments de la liberté, avaient été mis au service du viol méthodique, systématique, de la constitution qu'il avait fait serment de défendre. Il a estimé que son devoir était de rendre aux citoyens et à leurs élus un contrôle sur un État devenu criminel, et il a mis son intelligence et son expertise au service de cette entreprise difficile dont il décrit en détail les épisodes.

Son livre est rédigé sans prétention littéraire, dans une langue simple et étonnamment efficace car le lecteur partage la tournure d'esprit, le point de vue et les émotions de l'auteur.
____
1 Pour un service de renseignement, céder à la tentation de la la surveillance de masse est une erreur professionnelle (voir L'imbécillité de l'intelligence).

lundi 16 septembre 2019

Le désir de chaos

Voici quelques années un petit livre, émanant sans doute du groupe qui s’est formé à Tarnac autour de Julien Coupat, a proclamé dans un style hautain le désir de détruire la société1.

Ce « désir de chaos » s’est exprimé récemment, de façon violente, dans le mouvement des Gilets Jaunes et des black blocs.

Une étude d’opinion2 éclaire le phénomène. Ses auteurs ont fait six enquêtes (quatre aux États-Unis sur 5157 personnes, deux au Danemark sur 1336 personnes). Ils ont identifié ceux qui souhaitent le chaos par la réponse positive aux questions suivantes :

  • je rêve d’une catastrophe naturelle qui supprimerait presque tous les êtres humains, de sorte qu’un petit groupe puisse tout redémarrer ;
  • je pense que la société devrait être entièrement détruite ;
  • quand je pense à nos institutions sociales et politiques, je me dis « qu’on les brûle toutes » ;
  • il est impossible de régler les problèmes que posent nos institutions sociales : il faut les détruire et redémarrer ;
  • parfois j’aimerais détruire tout ce qui est beau.

24 % des personnes interrogées, représentatives de l’ensemble de la population, ont estimé que la société devait être entièrement détruite ; 40 % pensent qu’il faut brûler les institutions sociales et politiques pour les détruire et redémarrer.

Il faut relativiser ces pourcentages car ces opinions sont celles qu’expriment des personnes qui sont assises et seules devant leur ordinateur lorsqu’elles répondent à des enquêtes ou surfent sur les réseaux sociaux : il y a loin entre cette situation et le passage à l’acte. L’enquête montre cependant que si le « désir de chaos » est le fait d’une minorité, celle-ci bénéficie d’un soutien très large.

Dans le passé les amateurs de chaos étaient des marginaux sans influence. Les réseaux sociaux — Facebook, Twitter, Instagram, YouTube, etc. — leur ont permis d’acquérir un statut social en diffusant des « fake news », théories du complot et « scandales » fabriqués de toutes pièces qui sont autant d’incitations au chaos.

Ces « rumeurs politiques hostiles » n’ont pas pour but de promouvoir une idéologie mais de discréditer les élites politiques, de nier les apports de la science expérimentale, de mobiliser la population contre les politiques et les institutions en général. Les personnes qui souhaitent le chaos ne diffusent pas les rumeurs parce qu’elles les croient vraies mais pour faire des dégâts: elles veulent soulager un malaise intime en détruisant les institutions de notre République pour les remplacer par un désordre généralisé dont l’issue la plus probable sera une dictature.

Ce « désir de chaos » est relayé avec complaisance par ceux des intellectuels qui jugent élégant, longue tradition française, de vomir la bourgeoisie dont ils font partie.
____
1 Comité invisible, L'insurrection qui vient, La fabrique, 2007.
2 Michael Bang Petersen, Mathias Osmundsen et Kevin Arceneaux, « A “Need for Chaos” and the Sharing of Hostile Political Rumors in Advanced Democracies », American Political Science Association, août 2018.

dimanche 8 septembre 2019

Qu’est-ce qu’une entreprise ?

(Texte de l’exposé au colloque « État-Entreprise » de l’Institut d’études avancées de Nantes, 19 et 20 septembre 2019)

L’entreprise se trouve dans la tache aveugle de notre perception1. Elle existe, certes, mais nous ne savons pas la définir, en faire un concept qui se prête à l’exercice de la pensée, car elle est la cible d’une multitude de points de vue dont chacun ne l’éclaire qu’en partie : les juristes la voient à travers la notion de propriété qui leur est familière : elle serait la propriété des actionnaires ; les économistes la voient à travers la théorie néoclassique de l’équilibre général : elle aurait pour seul but de maximiser son profit ; les politiques lui assignent pour principale mission de « créer des emplois » ; les philosophes, pour la plupart, l’ignorent comme ils ignorent les autres institutions2 ; les cadres la perçoivent comme le théâtre de leur carrière, les autres comme la « boîte » où l’on peut « gagner sa vie », etc.

Plutôt que de tenter de la définir nous considérerons donc son action : ce qu’elle fait et comment elle le fait. Ce que nous allons dire concerne aussi bien les PME et les ETI que les grandes entreprises.

Que fait l’entreprise ?

Le fait est qu’une entreprise puise des ressources dans la nature qui l’environne (nature physique, mais aussi nature humaine et nature sociale) pour élaborer des produits qu’elle proposera à ses clients. Cette action transformatrice, productive, se décrit selon le schéma ternaire de l’activité économique, « input –> technique –> output ».

L’entreprise assure ainsi les fonctions d’une interface entre la nature et les besoins économiques des consommateurs des biens, des utilisateurs des services qu’elle produit3.

Il faut distinguer l’Entreprise, forme institutionnelle qui s’appuie sur une structure juridique et réglementaire, de l’entreprise avec un « e » minuscule qui en est une réalisation concrète et particulière. La mission de l’Entreprise, qui est d’assurer cette interface, s’entrelace historiquement avec celles de l’Église et de l’État4. Chaque entreprise est une institution (elle a été « instituée ») qui s’est donnée une mission (élaborer tel produit afin de satisfaire tel besoin) et s’est dotée de l’organisation qui lui permet de la remplir.

Concevoir ainsi l’Entreprise efface la frontière qui la sépare des services publics. Le système éducatif, le système judiciaire, le système de santé, l’armée, etc. agissent eux aussi à l’interface entre la nature et les besoins (en l’occurrence collectifs) pour produire respectivement un service d’éducation et de formation des jeunes, d’arbitrage des conflits, de préservation de la santé, de défense et de puissance, etc.