mercredi 18 mars 2020

Le rationnel et le raisonnable

Cette série développe le contenu du texte Pensée rationnelle et pensée raisonnable, que certains lecteurs ont jugé trop elliptique.

*     *

Notre pensée fournit à l’action les concepts et hypothèses, autrement dit les théories, qui lui permettent de répondre à diverses situations. Les « petits mondes » qu’elle crée ainsi découpent autant de zones de clarté rationnelle dans la complexité du réel. L’immensité obscure du monde réel entoure cependant ces « petits mondes » et il arrive qu’elle se manifeste.

La « pensée raisonnable » est celle qui, tout en tirant parti de la pensée rationnelle, est consciente de la complexité du monde réel et vigilante en regard des phénomènes qu’il comporte ainsi que de la dynamique qui transforme les situations.

Une personne dont la pensée est raisonnable diffère, par sa psychologie et par son action, de celles dont l’intellect s’enferme dans le « petit monde » rationnel d’une spécialité professionnelle, d’une institution ou d’une époque.

Seule la pensée raisonnable peut répondre au changement de situation qui a lieu, comme c’est le cas aujourd’hui, lorsqu’une révolution industrielle transforme la relation entre l’action et le monde réel.

Fonction pratique de notre pensée


Notre pensée confrontée au monde réel

Les « théories » familières de notre vie courante

Nos apprentissages

Réponse à une objection

Les étapes de notre pensée

Nos « petits mondes »

Nos « petits mondes » et le monde réel

Pensée rationnelle et pensée raisonnable


La situation présente


Une révolution dans le monde de la pensée


La situation présente (suite)

Fonction pratique de notre pensée

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Il nous est impossible de penser entièrement et complètement l’objet réel le plus modeste, notre tasse de café par exemple, car elle est en fait d’une complexité sans limite : les atomes qui composent ses molécules nous sont imperceptibles ainsi que leurs électrons ; son histoire est énigmatique car nous ignorons où, comment et par qui elle a été fabriquée, par quel circuit elle a été commercialisée, quand et par qui elle a été achetée ; son futur est imprévisible car nous ne pouvons pas savoir quand et par qui elle sera cassée, puis jetée, ni où iront ses restes, etc.

Ces connaissances, direz-vous, nous sont inutiles. C’est vrai : il suffit de savoir se servir de la tasse pour boire un café. Mais dire qu’une connaissance est inutile, c’est soumettre la connaissance au critère de l’utilité. Utilité en regard de quoi ? En regard de ce que l’on a à faire, c’est-à-dire d’une action que l’on a l’intention de réaliser en réponse à la situation dans laquelle on se trouve.

La connaissance, la pensée, sont donc soumises aux exigences de l’action, aux contraintes d’une situation : nous ignorons délibérément ce qu’il nous est inutile de connaître. Nous sélectionnons, parmi les attributs innombrables d’un objet réel, ceux seuls dont la connaissance nous est utile, et faisons abstraction des autres.


Nota Bene : la langue courante et familière associe au mot « abstraction » des connotations sérieuses, académiques, « scientifiques » : l’abstraction serait le fait des Savants, Philosophes et Intellectuels que l’on soupçonne d’être éloignés de la vie quotidienne et dépourvus de l’esprit pratique. Or l’exemple de la tasse de café montre que l’abstraction se trouve au cœur de notre activité quotidienne et qu’elle a un caractère pratique puisque la « pratique », c’est l’action elle-même.

Les choses que désignent les mots « pensée », « abstraction », « concept », « théorie » et « hypothèse » ne doivent pas être jugées « grandes, hautes, élevées, sublimes », mais « basses, communes, familières1 » : comme elles sont présentes dans nos activités les plus quotidiennes (conduire une voiture, faire la cuisine, avoir une conversation, etc.), c’est en considérant ces activités que l’on comprend leur nature, et cela permet d’élucider leur rôle dans les institutions, les sciences et la société.


Dire que la pensée est soumise aux exigences de l’action, c’est renverser l’ordre des choses qui nous a été inculqué par l’éducation et qui nous semble naturel : nous avons été formés à respecter la dignité éminente de la pensée, nous estimons qu’elle ne doit pas dépendre de ce qui est « subjectif » – nos désirs, nos intentions – et nous n’acceptons de la courber, avec la science expérimentale, que sous le joug du constat des faits.

L’exemple de la tasse de café montre cependant que l’objectivité au sens courant du mot, celle qui « reproduit exactement l’objet dans la pensée », est impossible car l’objet réel le plus modeste est d’une complexité illimitée. La connaissance est toujours en un sens subjective car elle est le fait d’un sujet porteur de valeurs, animé par des intentions, plongé dans une situation et cherchant des repères pour y agir. Cette subjectivité n’est cependant ni individuelle, ni capricieuse : elle est historique car elle est le fait de tous les individus qui rencontrent une même situation et adhèrent aux valeurs de la même civilisation. Prendre objectivement conscience de cette rencontre confère au mot « objectivité » un sens plus fécond que celui de l’usage courant.

Épisode suivant : Notre pensée confrontée au monde réel

______
1 Blaise Pascal, « De l'esprit géométrique et de l'art de persuader », in Oeuvres complètes, ed. Pléiade, Gallimard, Pléiade, 1954, p. 602

Notre pensée confrontée au monde réel

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent : Fonction pratique de notre pensée

Puisqu’il est impossible de penser entièrement l’objet le plus modeste il sera a fortiori impossible de penser entièrement le monde réel, ensemble des objets réels : sa complexité, étant illimitée, le rend en toute rigueur impensable car il est impossible de le penser de façon entière et absolue.

Mais notre action et notre pensée peuvent et doivent faire abstraction de cette complexité pour trouver le moyen d’agir dans le monde réel. Elle le peuvent, comme le montre l’exemple de la tasse de café, et aussi elle le doivent, comme le montre celui de la conduite automobile : un conducteur doit voir la route, les obstacles, les autres véhicules, la signalisation, et il ne doit pas voir les détails du paysage, de l’architecture, de la physionomie des passants, car cela distrairait son attention et ferait de lui un danger public.

À la conduite automobile est donc associée une grille de perception qui sélectionne, parmi les images qui s’impriment sur la rétine du conducteur, celles seules qui sont utiles à la conduite. Lorsque nous nous sommes formés à conduire une automobile nous avons appris à voir le monde à travers cette grille et nous l’appliquons sans y penser dès que nous sommes au volant.

Nous sommes génétiquement les héritiers des chasseurs-cueilleurs qui devaient trouver de quoi se nourrir dans le monde qui les entourait, donc distinguer des autres les plantes comestibles et aussi ruser à la chasse pour s’emparer de leurs proies. Notre pensée a, comme la leur, pour fonction de nous fournir les moyens d’agir1 face à une situation qu’elle représente de façon schématique à travers une grille qui sélectionne, parmi les êtres du monde réel et parmi les attributs de ces êtres, ceux seuls qu’il est nécessaire d’observer, et fait abstraction des autres. Cette grille est « conceptuelle » car elle définit les concepts dont nous observons la valeur sur les êtres que nous considérons2.

Le mot « concept » fait comme « abstraction » partie du vocabulaire savant mais ce qu’il désigne est là encore présent dans notre vie quotidienne. Un concept, c’est une idée à laquelle sont associés une définition et aussi un mot qui le nommera : l’idée de cercle est celle d’un rond régulier, sa définition est lieu des points d’un plan équidistants d’un point donné et seule cette définition rend possible le raisonnement qui déduira la surface, le périmètre et autres propriétés du cercle.

À chaque attribut des êtres que nous observons est associé un concept qui le désigne sans ambiguïté mais tout être réel, tout objet particulier et concret, est doté d’une infinité d’attributs comme nous l’avons vu à propos de la tasse de café : son existence assure la synthèse d’une infinité de concepts parmi lesquels nous devons choisir ceux que nous observerons. Toute observation suppose un choix parmi des attributs innombrables.


Une personne a ainsi une infinité d’attributs : une date et un lieu de naissance, un nom propre, un âge, un poids, un sexe, une adresse postale, une adresse électronique, un numéro de téléphone, un compte bancaire ; ses yeux ont une couleur, ainsi que ses cheveux, ses études ont été sanctionnées par des diplômes, sa carrière l’a fait passer par des emplois. À chaque instant cette personne a aussi un nombre de cheveux, une température, une tension, un rythme cardiaque, etc.

Certains des attributs sont stables (nom propre, date de naissance), d’autres peuvent varier avec le temps (âge, poids, adresse, tension) ou être multiples (compte bancaire, numéro de téléphone). La liste peut s’allonger indéfiniment pour contenir le nom des écoles et lycées par lesquelles la personne est passée, celui de ses professeurs et camarades de classes, celui de ses parents et autres membres de sa famille ainsi que leurs attributs, des dates, etc.

Épisode suivant :  Les « théories » familières de notre vie courante
___
1 Charles Sanders Peirce, « La maxime du pragmatisme », Conférences à Harvard, 1903.
2 « To comprehend and cope with our environment we develop mental patterns or concepts of meaning (…) The activity is dialectic in nature generating both disorder and order that emerges as a changing and expanding universe of mental concepts matched to a changing and expand-ing universe of observed reality » John Boyd, « Destruction and Creation », US Army Command and General Staff College, 1976.

Les « théories » familières de notre vie courante

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent :  Notre pensée confrontée au monde réel

À chacune de nos activités correspond une « grille conceptuelle » différente : lorsque nous conduisons notre voiture, faisons la cuisine, cultivons notre potager, lisons un livre, surfons sur l’Internet, etc., nous ne voyons et ne devons pas voir les mêmes choses. Chaque entreprise, chaque institution a sa propre grille conceptuelle, adaptée à ses actions et qui fournit une vision partagée à l’intellect des personnes qui y travaillent : la grille conceptuelle d’un hôpital n’est pas la même que celle d’un transporteur aérien, d’une banque, d’un institut de statistique, etc. Chaque spécialité professionnelle a elle aussi sa grille conceptuelle : celle d’un chirurgien n’est pas la même que celle d’un endocrinologue bien que tous deux soient des médecins, et leurs grilles diffèrent de celle d’un comptable.

Toute action, quelle qu’elle soit, vise par ailleurs à répondre à une situation en obtenant un effet dans le monde réel, qu’il s’agit donc de transformer fût-ce à toute petite échelle : cela implique une causalité. La grille conceptuelle, qui délimite et classe la perception du monde réel, doit donc être associée à des hypothèses causales : lorsqu’un conducteur appuie sur le frein ou l’accélérateur, lorsqu’il tourne le volant, il postule que ces actions auront les effets qu’il anticipe. D’autres hypothèses portent sur la structure du monde sur lequel on entend agir : l’axiome d’Euclide permet par exemple de raisonner sur l’espace dans lequel se déroule notre vie courante (mais il n'est vérifié ni sur la surface approximativement sphérique du globe terrestre, ni dans le Cosmos).

L’association d’une grille conceptuelle avec des hypothèses forme une théorie. Ce qui est « théorique », croit-on cependant, est le contraire de ce qui est « pratique » : nous pensons que la théorie est l’œuvre de Théoriciens qui explorent le monde des idées, comme le font les mathématiciens et les philosophes, ou le monde de la nature comme le font ceux qui font progresser la science expérimentale.

Pour bien comprendre ce qu’est la théorie pour ces chercheurs, il faut reconnaître qu’elle est présente dans notre action quotidienne et qu’elle lui procure son efficacité. Apprendre à faire quelque chose, c’est en effet assimiler la grille conceptuelle qui concentre la vision sur les êtres et attributs utiles à cette action, ainsi que les hypothèses concernant la situation et les causalités : c’est donc assimiler une théorie même si ce que l’on apprend n’est pas présenté sous une forme explicitement théorique.

La langue courante est celle de la conversation : elle suggère plus qu’elle ne dit grâce aux connotations qui entourent chaque mot et facilitent, au prix d’une imprécision, une compréhension « à demi mot ». La langue de l’action, qui est aussi la langue de la théorie, est par contre d’une précision sèche : elle dépouille chaque mot de son auréole de connotations pour ne plus désigner qu’une chose et une seule. Tandis que le mot « scalpel » évoque, dans la lange courante, une coupure dont l’image fait frissonner notre chair, il désigne pour le chirurgien un instrument dont la fonction est précise, et il en est de même de tous les mots de métier ou de pratique, « truelle », « algorithme », « pignon », « rasoir », etc.

Épisode suivant :  Nos apprentissages

Nos apprentissages

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)


Épisode précédent :  Les « théories » familières de notre vie courante

Il est utile de se remémorer ce qui s’est passé lorsque nous avons appris à lire, écrire, calculer, utiliser un tableur, jouer d’un instrument de musique, conduire une voiture, etc. Les mots « grille conceptuelle » et « hypothèse » ne faisaient sans doute pas partie du vocabulaire du formateur qui nous a aidé lors de chacun de ces apprentissages, mais c’est pourtant bien cela qu’ils nous a inculqué et que nous avons incorporé, inscrit dans notre corps, à tel point que l’action est devenue un réflexe : la lecture, la conduite d’une voiture nous sont naturelles, instinctives, nous avons oublié l’époque où ne savions rien faire de tout cela, ainsi que l’épisode parfois pénible par lequel nous avons dû passer pour apprendre à le faire.

Il faut un effort sur nous-mêmes, sur la nature que l’éducation et la formation nous ont inculquée, pour reconnaître que nous n’avons pas toujours su faire ce que nous savons faire, et aussi que nous pouvons apprendre à faire des choses nouvelles. Cet effort, beaucoup de personnes le refusent : celles qui estiment en savoir assez après avoir passé des examens et réussi des concours scolaires ; celles qui croient être trop âgées pour pouvoir apprendre quoi que ce soit de nouveau ; celles enfin, très nombreuses, qui plutôt que de se confronter à l’existence du monde réel préfèrent s’enfermer dans le « petit monde » des vocabulaire, réflexes et habitudes d’une spécialité professionnelle, ou dans le « petit monde » plus étroit encore de l’organisation hiérarchique dans laquelle elles ambitionnent de « faire carrière ».

Un effort de lucidité montre que notre nature a obéi à une dynamique, que nous avons changé en nous formant, que nous pouvons changer encore, que nous avons donc une histoire et qu’il en est de même de chacune de nos entreprises et de nos institutions.

Épisode suivant :  Réponse à une objection

Réponse à une objection

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent :  Nos apprentissages

Nous suspendons ici le cours de cet exposé pour prendre le temps de répondre à une objection qui est peut-être venue à l’esprit du lecteur.

Notre culture nous a habitués à considérer la pensée comme une activité autonome qui n’obéit qu’à son propre dynamisme. Or nous venons de la considérer comme déterminée par l’action à laquelle elle doit fournir concepts et hypothèses. L’action elle-même répond à une situation et obéit à l’intention de transformer cette situation (les phénoménologues évoquent une « intentionnalité »).

Pour comprendre la pensée qu’expriment un texte, une théorie ou une œuvre d’art, il faudrait donc remonter à la situation à laquelle ils ont répondu, à l’intention qu’ils ont voulu accomplir, à l’action enfin par laquelle cette intention s’est concrétisée. Ce ne sera pas toujours possible car il arrive que les origines d’une œuvre soient entourées d’un voile de mystère : l’œuvre nous semble alors aussi complexe qu’un objet naturel. Une œuvre profonde exprime d’ailleurs toujours quelque chose de plus et d’autre que ce que son auteur a voulu dire et faire.

Il faut cependant, pour comprendre vraiment la pensée qu’exprime une œuvre, considérer l’action qu’elle a voulu outiller ainsi que la situation à laquelle cette action a voulu répondre. On peut aussi, par l’intuition, adhérer à sa profondeur en partageant l’intention qu’exprime cette réponse. C’est ainsi qu’il convient de lire les grands textes littéraires ou scientifiques : on ne peut vraiment comprendre ni Chateaubriand, Stendhal et Proust, ni Gauss, Galois et Einstein, si l’on ignore ce qu’ils ont eu l’intention de faire face à la situation historique qu’ils rencontraient.

Ni la situation, ni l’action ne sont de la pensée car elles appartiennent l’une et l’autre au monde réel que la pensée rencontre et transforme. L’intention est par contre intérieure à la personne, mais elle n’est qu’une orientation préalable à la formation effective de la pensée car il ne suffit pas, pour pouvoir agir, d’avoir l’intention de le faire.

Mais qu’exprime l’intention ? Pourquoi désirons-nous modifier la situation à laquelle nous sommes confrontés ?

C’est que nous voulons y exprimer, y inscrire nos valeurs. Chaque être humain porte des options métaphysiques – l’adjectif « métaphysique » est là pour indiquer que ces options ne sont soumises ni à la démonstration, ni à l’expérimentation – qui sont pour lui sacrées car il leur consacre sa vie et serait prêt, s’il le fallait, à la leur sacrifier.

Les valeurs du psychopathe sont perverses, celles du carriériste sont médiocres. Les valeurs ne sont donc pas nécessairement « bonnes » mais cela n’enlève rien à leur importance : le but de la vie de l’être humain, peut-on dire, est de graver dans le monde réel l’image de ses valeurs.

Nous voyons ainsi se dessiner une chaîne de conséquences : pensée↔action↔intention↔valeurs. Chacun des liens de cette chaîne est soumis à un critère de qualité : la pensée doit être pertinente en regard des exigences de l’action ; l’action doit être judicieuse en regard de l’intention ; l’intention doit être fidèle aux valeurs. Les erreurs sont fréquentes : il arrive que certains de nos concepts ne soient pas pertinents, que certaines de nos actions ne soient pas judicieuses, que certaines de nos intentions trahissent nos valeurs.

Comment évaluer les valeurs elles-mêmes ? Il faut d’abord qu’elles soient exemptes des incohérences que peuvent laisser les influences subies pendant l’éducation ; il faut ensuite, pour éviter les pièges de la perversité et de la médiocrité, qu’elles soient adéquates à la grandeur du destin humain.

Tout cela peut sembler étrange car l’axiologie, science des valeurs, est une discipline peu fréquentée. N’est-il cependant pas évident qu’il convient de rechercher la pertinence des concepts, la justesse de l’action, la fidélité des intentions, enfin la cohérence et la rectitude des valeurs ?

Nous ne pouvions rien faire de plus ici que déposer ces remarques : on peut si nécessaire trouver des précisions dans le livre que nous avons consacré aux valeurs1.

Épisode suivant : Les étapes de notre pensée
___
1 Michel Volle, Valeurs de la transition numérique, Institut de l’iconomie, 2018.

Les étapes de notre pensée

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent : Réponse à une objection

Pour que l’on puisse habiter une maison, il faut qu’elle ait été conçue puis construite. Pour qu’on puisse lire un livre, il faut qu’il ait été conçu, écrit et publié. Pour qu’une entreprise puisse produire, il faut qu’elle ait investi. De même notre pensée comporte des étapes : elle se construit, elle est transmise, elle est mise en action.

L’étape constructive est celle pendant laquelle une théorie est bâtie pour répondre à une situation : des hypothèses reprennent les traits fondamentaux de la situation, une grille conceptuelle permettra de percevoir et de qualifier les êtres qui s’y manifestent.

C’est ce que fait, à l’échelle individuelle, une personne qui arrive dans un pays qu’elle ne connaissait pas : il lui faut quelques jours pour trouver ses repères et savoir comment se comporter. C’est ce que font aussi une entreprise confrontée à l’évolution de l’état de l’art des techniques, une nation confrontée à la transformation de l’échiquier géopolitique ou qui entend répondre à l’exigence scientifique, etc.

Une fois bâties, certaines théories sont transmises par l’éducation et la formation : des professeurs enseignent les mathématiques, les moniteurs des auto-écoles forment les futurs conducteurs, etc. Tandis que l’enseignement des mathématiques est explicitement théorique (même s’il évite les mots « concept » et « théorie », nomme « axiomes » ses hypothèses et n’évoque jamais, bien qu’elles soient inscrites dans l’histoire, ni l’action que les mathématiques ambitionnent de servir, ni la situation à laquelle elles répondent), la formation à une activité comme la conduite automobile ne passe pas par le formalisme de la théorie : il s’agit plutôt d’inculquer des réflexes et des habitudes par des exercices répétés et en court-circuitant les concepts et les hypothèses qui seront pourtant implicitement présents dans le cerveau du conducteur.

La troisième étape, active, est celle où l’action bénéficie de la puissance que l’assimilation de la théorie apporte au cerveau humain : justesse de la perception, rapidité des réflexes. Le stratège expérimenté possède le « coup d’œil » qui permet la décision judicieuse, le système nerveux du musicien virtuose coordonne les mouvements de son corps, etc. Le « naturel » de l’action de la personne éduquée et formée masque ainsi la nature théorique de la pensée sous-jacente, mais elle est cependant présente.

Tandis que l’étape constructive confronte la pensée au « monde réel », dont elle soumet la complexité à un effort d’abstraction pour dégager les concepts et hypothèses pertinents en regard de la situation, l’étape active se déroule dans le « petit monde » que définit une théorie, monde étroitement adapté à la situation que l’action considère : l’efficacité se paie par cette étroitesse qui lui est d’ailleurs nécessaire.

Tout cela se passe sans que l’on en soit conscient : penser et agir est aussi naturel pour nous que le fonctionnement de notre appareil digestif, dont on ne se soucie que si l’on est malade. C’est en étudiant l’appareil digestif que l’on peut découvrir ce qu’il est et ce qu’il fait, et de même c’est en étudiant notre pensée et notre action que nous pouvons découvrir ce qu’elles sont, ce qu’elles font, leurs relations, et nous prémunir ainsi contre leurs éventuelles pathologies.

Épisode suivant : Nos « petits mondes »

Nos « petits mondes »

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent :  Les étapes de notre pensée

Chaque spécialité professionnelle, chaque institution, chaque entreprise se dote du « petit monde » qui lui fournit les concepts et hypothèses sur lesquels s’appuiera l’action : l’ingénierie sémantique du système d’information d’une entreprise1 explicite ce « petit monde » en définissant les données, dont la qualité s’évalue selon la pertinence du concept et l’exactitude de sa mesure (quantitative ou qualitative) sur les « individus » (produits, clients, équipements, agents, etc.) que l’entreprise a choisi d’observer.

Dans l’entreprise chaque spécialité cultive un « petit monde » : celui de la direction générale n’est pas le même que celui du « terrain », celui des informaticiens n’est pas le même que celui des agents de la production ni des commerciaux. La diversité de ces « petits mondes » renforce l’étanchéité des cloisons que les silos de l’organisation hiérarchique opposent à la coopération des métiers.

La complexité illimitée du monde réel évoque un plan infini dans lequel chaque « petit monde » découpe une surface semblable au cercle lumineux que projette un réverbère. Certains de ces cercles ne se touchent pas, d’autres se chevauchent en partie, et les personnes qui s’enferment dans leur petit monde risquent d’être semblables à l’homme qui, dans une fable fameuse, cherche ses clés sous le réverbère : « c’est par ici que vous les avez perdues ? », lui demande un passant. « Non, répond-il, mais au moins ici j’y vois clair ».

On constate souvent des défauts dans la sémantique des entreprises : leur « petit monde » faisant cohabiter les divers « petits mondes » des spécialités professionnelles, il en résulte des homonymes dangereux car quand le même mot désigne des choses différentes on ne sait plus de quoi on parle. Par ailleurs les données n’obéissent pas toujours aux critères de pertinence et d’exactitude et leurs défauts se répercutent (garbage in, garbage out) sur la qualité des analyses et « intelligences artificielles » qu’elles alimentent.

Le « petit monde » d’une entreprise est donc parfois illogique. Cela ne l’empêche pas de s’imposer à l’intellect des agents, et son illogisme a alors des conséquences pratiques car violer la logique, c’est violer la nature elle-même : on ne peut pas affirmer impunément à la fois une chose et son contraire. La nature se vengera par l’échec des projets, le dépassement des budgets et des délais, l’abondance des pannes et des incidents, le malaise mental et le stress des agents, l’insatisfaction des clients, etc.

Une personne que l’entreprise vient de recruter assimilera son « petit monde » en écoutant ce que disent les autres, en regardant ce qu’ils font, en voyant leur comportement. Elle s’imprégnera ainsi de la « culture de l’entreprise », autre expression pour désigner son « petit monde ». Lorsque deux entreprises se lient par un rapport de partenariat, et plus encore lorsqu’elles sont soumises à une fusion ou une acquisition, leurs « petits mondes » se rencontrent en portant chacun son vocabulaire, ses habitudes, ses façons d’être et de se comporter : ils résistent, les fusions/acquisitions échouent souvent sur ce récif.

La vie quotidienne d’une personne, enfin, se déroule dans divers « petits mondes » correspondant chacun à l’une des situations qu’elle traverse : conduire une automobile, faire la cuisine, écrire une lettre, etc. Il n’est pas toujours facile, lorsque l’on passe d’une situation à une autre, de retrouver ses repères en passant d’un « petit monde » à l’autre : il arrive que l’on reste pendant un délai englué dans le « petit monde » qui répondait à la situation que l’on vient de quitter. L’informaticien qui a consacré sa journée à la programmation d’un algorithme aura du mal, le soir venu, à comprendre un texte littéraire ; l’automobiliste qui a longtemps conduit en ville se sent mal à l’aise pendant quelques minutes s’il doit emprunter une autoroute.

Épisode suivant :  Nos « petits mondes » et le monde réel
___
1 Michel Volle, « Le système d’information », Encyclopédie des techniques de l’ingénieur, 10 février 2011.

Nos « petits mondes » et le monde réel

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent :  Nos « petits mondes »

L’action judicieuse et rapide du professionnel formé et expérimenté (chirurgien, pilote, ingénieur, etc.) résulte d’une assimilation, d’une incorporation de la théorie qui permet à ses réflexes de court-circuiter les étapes de la perception et du raisonnement. Cette action n’est pas celle du théoricien qui produit une théorie mais celle du praticien qui la met en œuvre. Certains praticiens atteignent, dans l’exercice de leur métier, un haut degré d’érudition et de virtuosité : ils en connaissent tous les détails, leur action est rapide et précise.

Cette efficacité professionnelle et pratique, si commode et si nécessaire qu’elle soit, s’accompagne de risques qui s’ajoutent aux obstacles que la diversité des « petits mondes » oppose à la coopération entre des entreprises ou entre les métiers d’une même entreprise.

C’est que le monde réel, dont l’abstraction de la théorie ne retient que les éléments nécessaires à l’action, existe cependant. Il est obscurément présent devant l’action tout en étant extérieur à la clarté du « petit monde » dans lequel elle est conçue, et sa présence se manifeste par des phénomènes imprévus ou imprévisibles. Pannes, incidents, accidents, comportements étranges, etc., confrontent à l’occasion les personnes à une situation autre que celle à laquelle leur « petit monde » répond.

L’action produit d’ailleurs dans le monde réel des effets que le « petit monde » ne permet ni de penser, ni d’anticiper entièrement. Elle peut avoir des conséquences imprévues, étrangères à l’intention, et comporte donc une part de risque. Le « sérieux professionnel » du praticien virtuose, son « sens du devoir », risquent de le rendre complice d’actes que son « petit monde » ne lui donne pas les moyens d’évaluer :
« L’homme de devoir finira par remplir son devoir envers le diable lui-même1 »
(Dietrich Bonhoeffer (1906-1945), Widerstand und Ergebung, Eberhard Bethge 1955, p. 13).
Enfin la situation historique (économique, technique, sociopolitique, etc.) obéit à une dynamique qui la soumet à une évolution : le « petit monde » en regard duquel étaient définies la mission et l’organisation des institutions peut n’être plus pertinent en regard d’une situation nouvelle comme celle, par exemple, qui émerge après une révolution industrielle : alors l’action, privée de concepts et d’hypothèses adéquats à la situation, ne pourra plus être judicieuse et l’erreur sera systématique.

Épisode suivant :  Pensée rationnelle et pensée raisonnable
___
1 « Der Mann der Pflicht wird schließlich auch noch dem Teufel gegenüber seine Pflicht erfüllen müssen. »

Pensée rationnelle et pensée raisonnable

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent :  Nos « petits mondes » et le monde réel

Dans la dernière phrase de son dernier article Alan Turing a évoqué « the inadequacy of "reason" unsupported by common sense1 » : venant de l'inspirateur de l'intelligence artificielle, cette expression est d'une profondeur qu'il convient de sonder.

On peut qualifier de rationnelle la pensée dont les étapes se complètent et se distinguent l’une de l’autre comme le font construire une machine, apprendre à s’en servir et l’utiliser. Les « petits mondes » sur lesquels elle s’appuie sont simples en regard de la complexité illimitée du monde réel, et cette simplicité lui confère une clarté qui favorise l’efficacité de l’action.

Nous qualifierons par contraste de raisonnable la pensée de la personne qui, tout en tirant parti dans son action de la rationalité d’un « petit monde », reste consciente de l’existence et de la complexité du monde réel et donc de la possibilité de phénomènes que la pensée rationnelle ne conçoit pas, de l’écart qui peut se creuser entre la situation réelle hic et nunc et un « petit monde » qui répondait à une autre situation, enfin de la pluralité des « petits mondes » qui se rencontrent dans l’entreprise et dans la société.

Cette « pensée raisonnable » n’est rien d’autre que du bon sens. Nous aurions pu retenir cette dernière expression mais nous avons préféré « pensée raisonnable » parce qu’elle contraste utilement avec « pensée rationnelle ». L’usage entoure cependant l’adjectif « raisonnable », tout comme l’expression « bon sens », de connotations qu’il faut surmonter. Nous avons entendu un économiste célèbre dire « le bon sens est vulgaire » devant un auditoire admiratif : comme sa pensée plaque sur le monde réel la grille de lecture rationnelle héritée des Grands Auteurs de sa discipline, les personnes qui s’efforcent de penser raisonnablement la situation présente lui semblent médiocres.

Les théories qu’ont créées chacun de ces Grands Auteurs ont répondu chacune à la situation de leur époque mais une fois déposées dans des livres elles ont revêtu les prestiges intemporels du texte imprimé et autorisé. Cela leur a donné dans l’intellect des professeurs et des étudiants une existence qui se prolonge sans que l’on se soucie d’évaluer leur pertinence en pensant à la situation à laquelle elles ont répondu, puis en comparant cette situation à la situation présente.

La pensée raisonnable, étant du bon sens, est tout simplement naturelle et devrait être largement partagée mais il n’en est rien. L’expérience montre en effet que la plupart des personnes enferment comme le fait cet économiste leur pensée dans le « petit monde » qui leur a été inculqué par l’éducation et la formation, et ne perçoivent le monde réel qu’à travers ses abstractions. Leur « petit monde » peut se réduire à l’arrivisme de la carrière, très répandu et généralement considéré avec bienveillance, il se limite le plus souvent aux exigences d’une action professionnelle réduite à des réflexes éventuellement subtils.

Vivre et agir dans un « petit monde » professionnel est en effet à la fois commode et efficace. L’action dispose de la grille conceptuelle et des hypothèses, ou principes, qui lui procurent la rapidité d’un réflexe et l’efficacité pratique, tant du moins que la situation ne s’écarte pas de celle à quoi répond la théorie du « petit monde ». La personne qui s’enferme dans un « petit monde » est adaptée à l’exécution d’un travail répétitif éventuellement compliqué, mais sans surprises. Elle sera hostile aux changements de situation, aux innovations qui l’obligeraient à modifier son « petit monde ».

La situation présente

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent :  Pensée rationnelle et pensée raisonnable

L’institution qu’est l’Entreprise, dont chaque entreprise (ainsi que chacune des institutions qui produisent un service) est une manifestation concrète, a pour mission d’assurer l’interface entre les besoins économiques d’une population et le monde réel, ou « nature », dans lequel elle puise ses ressources : elle élabore, au prix de la désutilité des déchets que provoque la production, des produits (biens et services) qui contribuent au bien-être matériel de la population et confortent le droit de la nation à la parole.

Les révolutions industrielles ont transformé les possibilités et les dangers auxquels l’action est confrontée. Elles ont ainsi changé la relation entre l’Entreprise et la nature à tel point que l’on peut dire qu’elles ont transformé la nature elle-même : ce fut le cas avec la mécanisation et la « chimisation » de l’action productive à partir de la fin du XVIIIe siècle, avec l’électrification et la motorisation à la fin du XIXe siècle, enfin avec l’informatisation à partir des années 1970.

Chacune de ces révolutions industrielles a renversé l’ordre social en exigeant de nouvelles compétences et de nouvelles formes d’organisation. Les « petits mondes » auxquels s’attachaient les habitudes, et qui portaient l’image du sérieux, se trouvaient soudain inadaptés : il en est à chaque fois résulté un désarroi général et une pulsion suicidaire1 qui poussera les peuples vers la guerre.

Ce désarroi se rencontre à l’époque présente, qui connaît elle aussi le désarroi2 : elle le théorise dans des textes d’un intellectualisme sentencieux3 et l’exprime par d’insistants appels à l’insurrection, par une épidémie de fake news, par un refus exaspéré de la raison rationnelle comme raisonnable, par une hostilité individualiste envers les entreprises et les institutions. L’écologie, science des relations entre l’action et la nature, abandonne sa mission pour se complaire dans la perspective morose de la décroissance.

Le ressort de la dernière révolution industrielle est généralement ignoré : les mots « informatique » et « informatisation », qui désignent exactement l’articulation de l’automate et de l’information4, sont jugés « ringards » : on leur préfère « numérique » ou « digital » auxquels ne peut s’attacher aucune définition précise. Le vocabulaire est d’ailleurs pollué par des faux amis : l’ordinateur est un calculateur, computer, il ne crée pas de l’ordre ; les données sont des observations sélectives, elles ne sont pas « données » par la nature ; les connotations qui entourent des expressions comme « intelligence artificielle », « réseau neuronal », « apprentissage machine » et « apprentissage profond » suscitent des chimères qui engagent l’intuition dans des impasses.

L’institut de l’iconomie a construit le « modèle » schématique qui, ramenant la situation présente à quelques concepts et principes essentiels, propose à l’action l’orientation qui permettrait de tirer parti des possibilités que l’informatisation apporte en maîtrisant les dangers qui les accompagnent. Nous en reprenons ici les éléments essentiels.

*     *

L’informatisation automatise les tâches répétitives, qu’elles soient physiques ou mentales. La main d’œuvre étant remplacée par des automates, seul reste aux êtres humains le travail non répétitif : conception des produits, ingénierie de la production, organisation de l’entreprise, relation avec les clients, fournisseurs et partenaires. L’emploi de la main d’œuvre fait place à celui du cerveau d’œuvre, être humain dont l’intelligence travaille en symbiose avec les ressources (données, documents, algorithmes, puissance des processeurs) que fournit l’informatique.

Une révolution dans le monde de la pensée

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent : La situation présente

Les mathématiques explorent, sous la seule contrainte du principe de non-contradiction, le monde de la pensée, monde des concepts et de leurs relations. Cette exploration est un investissement en vue des exigences futures de l’action, à laquelle les mathématiques offriront des raisonnements prêts à l’emploi.

La certitude des mathématiques est apodictique, suspendue à des hypothèses : l’axiome d’Euclide convient pour représenter l’espace de la vie quotidienne mais non la surface du globe terrestre (le théorème de Pythagore n’est pas respecté sur une sphère).

Alors que les mathématiques, avec leurs démonstrations, développent ce qu’impliquent des axiomes et répondent à la question « qu’est-ce que c’est ?», l’informatique répond à la question « comment faire ? » et aux besoins de l’action dans une situation particulière. Elle apporte ainsi une révolution dans le domaine de la pensée :
« In mathematics we are usually concerned with declarative (what is) descriptions, whereas in computer science we are usually concerned with imperative (how to) descriptions »
(Harold Abelson et Gerald Jay Sussman, Structure and Interpretation of Computer Programs, MIT Press, 2001, p. 22).
Notre éducation nous a habitués à juger une discipline « scientifique » dans la mesure où elle est mathématisée. Mais comme un théorème n’est exact que dans les situations où les axiomes dont il découle sont respectés, le raisonnement doit d’abord s’assurer de la pertinence des hypothèses en regard de la situation et des exigences de l’action.

Les disciplines intellectuelles que sont l’histoire et l’économie sont confrontées à la complexité énigmatique du monde réel et à l’imprévisibilité du futur. Elles ne présentent pas la certitude apodictique des mathématiques, mais elles éclairent l’action et peuvent lui indiquer une orientation : ce sont des sciences de l’action.

Il faut savoir tirer parti des enseignements de l’histoire même si cette science n’est pas mathématisée. Il faut aussi savoir évaluer la pertinence des résultats mathématiques de la théorie économique en regard de la situation que l’on considère.

Épisode suivant :  La situation présente (suite)

La situation présente (suite)

(Ce texte fait partie de la série "Le rationnel et le raisonnable".)

Épisode précédent :  Une révolution dans le monde de la pensée

Les modèles économiques qui ont démontré l’optimalité du libre échange, de la concurrence parfaite et de la tarification au coût marginal sont contredits par les rendements d’échelle croissants, conséquence physique de l’automatisation1. Les marchés obéissent désormais au régime de la concurrence monopolistique, la place de chaque nation dans le concert géopolitique dépend de sa maîtrise des techniques fondamentales de la microélectronique, du logiciel et de l’Internet. L’entrepreneur avisé sait que son entreprise doit ambitionner une position de monopole sur un segment des besoins, et que ce monopole sera temporaire.

L’économie informatisée est l’économie du risque maximum car elle est ultra-capitalistique, la concurrence monopolistique est violente : l’entrepreneur doit être vigilant, à l’affût, et tirer parti comme un chasseur-cueilleur de toutes les ressources de la pensée raisonnable.


Lorsque le rendement d’échelle est croissant la concurrence ressemble à un casino2. Les joueurs s’appellent Gates, Gerstner, Grove, etc. Les tables de jeu s’appellent « Multimédia », « Web », « Paiement électronique », etc. Vous vous asseyez à une table et demandez : « Quelle est la mise ? » Le croupier répond : « Trois milliards de dollars. » « Qui sont les joueurs ? » « On le saura quand ils seront là. » « Quelles sont les règles du jeu ? » « Elles se définiront d’elles-mêmes durant la partie. » « Quelles sont mes chances de gagner ? » « Impossible à dire. »

Une telle partie n’est pas pour les timides ! Le succès ira au joueur capable d’extraire du brouillard technologique les nouvelles règles du jeu, et de leur donner un sens.


L’entreprise intelligemment informatisée délègue des responsabilités aux cerveaux d’œuvre, elle doit donc leur attribuer la légitimité qui correspond à ces responsabilités. Le droit à la parole, à la décision, n’est plus le privilège de la fonction de commandement : l’entreprise doit entendre le témoignage de ceux qu’elle met, sur le terrain, en relation directe avec le monde réel.

Condensons le raisonnement : dans la situation présente, l’acteur essentiel est l’Entreprise, c’est-à-dire les entreprises et aussi celles des institutions qui produisent des services, et le phénomène essentiel est l’informatisation. Or l’informatisation des entreprises se concrétise dans leur système d’information, qui reflète par ailleurs leur organisation (structure des pouvoirs de décision, procédures de l’action productive).

Un entrepreneur doit donc être attentif à la qualité du système d’information de son entreprise, un économiste doit considérer la qualité des systèmes d’information des entreprises.

*     *

Quittons cette esquisse pour revenir à la situation présente. Le phénomène de l’informatisation étant généralement mal compris les entreprises sont en transition entre l’ancien et le nouveau monde et la société est le théâtre d’un désarroi.

mardi 17 mars 2020

Dynamique et ressort de l'intelligence artificielle

(Cette série est ma contribution au colloque sur l'intelligence artificielle organisé au Maroc par le professeur Jaouad Dabounou.)

« These machines have no common sense; they do exactly as they are told, no more and no less. This fact is the hardest concept to grasp when one first tries to use a computer. »
(Donald E. Knuth, The Art of Computer Programming, Addison Wesley 1997, volume 1, p. v).

Comme toute discipline intellectuelle, comme toute technique, l’intelligence artificielle obéit à une dynamique : elle a une origine, elle a connu une évolution et dans sa situation présente est tendu un ressort qui la propulse vers son futur.

L’approche historique permet de poser les problèmes philosophiques et sociologiques que l’IA éveille inévitablement puisqu’elle s’est placée sur le terrain de la pensée et de ses rapports avec l’action.

Elle fait aussi apparaître des exigences éthiques dont la toute première est sans doute de tirer au clair la réalité de ce dont on parle.

Turing : informatique = intelligence

Les hivers des deux premières IA


De l'analyse des données à la troisième IA


Vers un troisième « hiver de l'IA » ?

Place de l'IA dans l'informatisation

Éthique de l’IA

Futur de l'IA

Turing : informatique = intelligence

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

L’origine de l’IA se trouve dans un article publié par Alan Turing en 19501, où il définit un test qui permettrait de dire qu’il n’existe pas de différence entre l’intelligence humaine et celle de l’ordinateur2.

Ce test qui s’appuie sur le « jeu de l’imitation » sera réussi, dit-il, si lors d’un exercice de cinq minutes l’interrogateur aura confondu l’ordinateur avec un être humain dans au moins 30 % des cas. On peut évidemment estimer, contrairement à Turing, qu'il serait hardi de déduire d'un tel test que l'ordinateur est « intelligent ».

Dans le même article Turing explique d'ailleurs ce qu’est un ordinateur :

« On peut expliquer l'idée qui se trouve derrière les ordinateurs en disant qu'ils sont conçus pour réaliser toutes les opérations qui pourraient être faites par un calculateur humain. Le calculateur humain est supposé suivre des règles fixes ; il n'a pas le droit de s'en écarter le moins du monde. Nous pouvons supposer que ces règles lui sont fournies dans un livre qui sera modifié chaque fois qu'on veut lui faire faire un nouveau travail. »

L’ordinateur est donc essentiellement un automate programmable, fait pour exécuter tout ce qui peut être programmé. Son « intelligence » est une « intelligence à effet différé » stockée dans ses programmes, tout comme un « travail à effet différé » (ou « travail mort ») est stocké dans le capital fixe d’une entreprise en l’attente du « travail à effet immédiat » (ou « travail vivant ») des agents opérationnels.

Si l’ordinateur reçoit de son environnement les signaux qui déclenchent le programme celui-ci sera exécuté, grâce à la puissance de son processeur, avec une vitesse dont un calculateur humain serait incapable : il peut sembler accomplir alors certaines des promesses de la magie.

L’extension ainsi apportée à l’action potentielle est cependant limitée car l’ordinateur ne peut qu’exécuter son programme : il ne possède pas le « bon sens » qui permet à un être humain d’interpréter un imprévu, de s’adapter à une situation nouvelle, etc.
« L'ordinateur et l'homme sont les deux opposés les plus intégraux qui existent. L'homme est lent, peu rigoureux et très intuitif. L'ordinateur est super rapide, très rigoureux et complètement con. »

(Gérard Berry, entretien avec Rue 89, 26 août 2016.)
Turing en était conscient. Dans son dernier article3 il a évoqué « the inadequacy of "reason" unsupported by common sense », expression dont nous devrons sonder la profondeur.
___
1 Alan Turing, « Computing machinery and intelligence », Mind, 1950.
2 Le mot « ordinateur » a été créé en 1955 par le linguiste Jacques Perret à la demande d’IBM qui voulait traduire « computer » en français en évitant « calculateur », jugé mauvais pour l’image de ses machines.
3 Alan Turing, « Solvable and Unsolvable Problems », Science News, 1954.

Les hivers des deux premières IA

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent : Turing : informatique = intelligence

Première IA : automatiser le raisonnement

L'article de Turing avait attiré l'attention des informaticiens et éveillé leur ambition. John McCarthy a inventé en 1956 l’expression « intelligence artificielle » pour fournir à l’informatique4 une autre orientation que celle indiquée par la cybernétique de Norbert Wiener :

« One of the reasons for inventing the term "artificial intelligence" was to escape association with "cybernetics". Its concentration on analog feedback seemed misguided, and I wished to avoid having either to accept Norbert Wiener as a guru or having to argue with him. »

(John McCarthy, « Review of The Question of Artificial Intelligence » in Defending AI Research: A Collection of Essays and Reviews, CSLI, 1996.)

La première génération de l’IA, impulsée par John McCarthy et Herbert Simon, a été consacrée à l’automatisation du raisonnement : il s’agissait d’utiliser l’ordinateur pour prouver des théorèmes, pour traduire des textes d’une langue dans une autre, etc. Après quelques résultats encourageants les déceptions s’accumulèrent, notamment à propos de la traduction du russe vers l’anglais qui intéressait beaucoup l’armée américaine.

Les crédits se tarirent et la recherche en IA connut son premier « hiver » à partir de 1974.

Deuxième IA : automatiser l’expertise

La recherche fut relancée vers 1980 par l'espoir dans les « systèmes experts ». Il s’agissait d’introduire dans un programme les connaissances implicites des experts d’un domaine de l’ingénierie, de la finance, etc. et d’en déduire des conséquences logiques à l’aide d’un « moteur d’inférence » afin de pouvoir les mettre en œuvre en bénéficiant de la puissance et de la vitesse des processeurs.

Alors que les algorithmes avaient jusqu’alors traité logiquement des problèmes bien définis, les systèmes experts devaient enregistrer ainsi les « règles de pouce » et le « coup d’œil » des experts (par exemple les procédés du « chartisme » qu’utilisaient les opérateurs des salles de marché pour interpréter les graphiques des cours de bourse et des taux de change).

Les déceptions s’accumulèrent cependant de nouveau : la collecte des expertises rencontrait le mur de complexité qu’il faut franchir pour pouvoir expliciter des savoirs implicites, et en outre lorsque la conjoncture changeait le système expert restait rigide alors que l’expert humain adaptait intuitivement ses « règles de pouce ».

Vers 1987 l’IA entra dans un deuxième « hiver ».

Épisode suivant :  De l'analyse des données à la troisième IA
__
4 Le mot « informatique » a été créé en 1962 par Philippe Dreyfus, alors ingénieur chez Bull, pour traduire en français l’expression « computer science ».

De l'analyse des données à la troisième IA

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent : Les hivers des deux premières IA

Analyse des données = informatique + statistique

Les techniques de l’analyse des données développées dans les années 1960-70 ont anticipé la démarche qui sera celle de la troisième IA.

La statistique, avec ses « tris à plat » et ses « tris croisés », avait d’abord publié essentiellement des totaux et des moyennes, puis la régression multiple, qui estime une variable quantitative à partir de ses corrélations avec d’autres variables dont la valeur est connue, a fourni son principal outil à l’économétrie.

L’analyse systématique des corrélations nécessitait cependant une « analyse factorielle » qui suppose de pouvoir calculer les vecteurs propres d’un tenseur d’ordre deux de grande dimension. Seul l’ordinateur en était capable : les progrès de l’informatique permirent de la développer à partir des années 1960 selon diverses méthodes qui sont toutes (ainsi que la régression) des cas particuliers de l’analyse canonique généralisée5 :
  • l’analyse en composantes principales (ACP) de Hotelling6 visualise la corrélation de données quantitatives ;
  • l’analyse factorielle des correspondances (AFC) de Benzécri7 visualise la corrélation de données qualitatives, telle que la mesure leur chi2$ ;
  • l’analyse factorielle discriminante (AFD) met en évidence la corrélation entre des symptômes et un diagnostic, technique qui sera comme nous le verrons enrichie et approfondie par la troisième IA ;
  • à ces analyses factorielles étaient associées des techniques de classification automatique qui permettent de délimiter des « clusters » dans un espace de grande dimension.v
L’analyse des données a rencontré de façon précoce certains des problèmes auxquels l’IA est aujourd’hui confrontée :
  • la qualité des résultats d’une analyse dépend de celle des données qui l’alimentent : la règle « garbage in, garbage out » est implacable, mais il est parfois très difficile de « nettoyer les données » ;
  • l’examen des corrélations procure des « indices » utiles mais leur interprétation nécessite de se référer à un cadre théorique que la statistique à elle seule ne comporte pas ;
  • l’analyse discriminante permet des indiscrétions (estimer par exemple les opinions d’une personne à partir d'une observation de son comportement), ce qui peut se révéler à la fois contraire à l’éthique et dangereux.
La classification automatique suppose par ailleurs des choix qui doivent être pertinents en regard du but visé par l’étude. Il faut en effet choisir :
  • l'ensemble à classifier en définissant les éléments (« individus ») qui le composent ;
  • les attributs observés sur chaque individu ;
  • pour chaque couple d'individus une distance, fonction de la différence entre leurs attributs (« critère de classification ») ;
  • une distance entre les sous-ensembles (« stratégie d'agrégation »).
L'analyse des données fournit des graphiques (projection des « nuages de points » sur les plans définis par deux axes factoriels, « arbre » représentant une classification) et des « aides à l'interprétation » qui attirent l'attention sur les phénomènes les plus significatifs du point de vue de la statistique. Comme elle est cependant fondée sur les seules corrélations, elle ignore les causalités et ne procure donc aucune explication de ces phénomènes. L'expérience montre que l'interprétation doit sortir de la statistique pour se référer aux hypothèses causales que comporte la théorie du domaine observé.

L'un des résultats les plus féconds d'une analyse des données est l'éventuelle contradiction qu'elle apporte à la théorie, et qui révèle soit une erreur dans les données (c'est le cas le plus fréquent), soit un phénomène réel que la théorie n'a pas pris en compte (c'est le cas le plus intéressant) : mais il faut connaître la théorie pour pouvoir percevoir une telle contradiction.

 Troisième IA : automatiser le diagnostic

Vers 2000 l’augmentation de la puissance des ordinateurs a permis de relancer les recherches en IA. Alors que l'analyse factorielle discriminante8 procurait les combinaisons linéaires de symptômes qui distinguent au mieux les diagnostics, la recherche s’est alors appliquée à mettre au point des méthodes d’analyse discriminante pour la reconnaissance d’images et d’autres types de diagnostic9 :
  • une machine à vecteurs de support (Support Vector Machines10, SVM) indique la frontière, éventuellement sinueuse, qui sépare au mieux les individus selon leur diagnostic dans le nuage de points qui les représente dans l'espace des symptômes ;
  • un réseau neuronal est un ensemble d'algorithmes communiquant par des liaisons, nommées « synapses », dont la pondération non linéaire tâtonne jusqu'à ce que l'interprétation des symptômes soit conforme au diagnostic : c’est l’« apprentissage supervisé » (supervised learning) ;
  • le scoring permet d’associer à un diagnostic (ou de façon générale à un classement) une évaluation quantitative de sa vraisemblance : il s’obtient par une régression ;
  • l’« apprentissage non supervisé » (unsupervised learning) est une technique de classification automatique qui classe les « individus » selon leurs attributs et sans faire référence à un diagnostic : elle suppose de choisir un critère de classification et une stratégie d’agrégation.
Le réseau neuronal a été utilisée par exemple pour diagnostiquer le cancer du col de l’utérus11 : étalonné sur 100 000 images de cas pour lesquels le diagnostic est connu (tissu sain, inflammation bénigne, lésion pré-cancéreuse, suspicion de cancer), il fournit le petit logiciel qui équipera un iPhone et fournira une estimation du diagnostic.  

Alors que l’utilisation sur le terrain de cet outil « intelligent » est commode, sa préparation a nécessité un important travail humain pour constituer la base d’images, régler le réseau neuronal et tester la méthode sur un échantillon (un dixième des images de la base avait été réservé à cette fin).

Un réseau neuronal est une « boîte noire » car personne ne peut savoir pourquoi il est arrivé à un résultat. Cela contrarie les esprits logiques et certains praticiens jugent les SVM plus efficaces que les réseaux neuronaux. D'autres ont l'opinion contraire, d'autres encore estiment que la meilleure méthode s'appuie sur une combinaison des deux12.

Ces méthodes rencontrent les mêmes difficultés que l’analyse des données (« garbage in, garbage out », interprétation), auxquelles s’ajoute le risque d’un surapprentissage (excessive fidélité aux particularités de l’échantillon que contient la base de données). Dans tous les cas, la mise au point d’un outil d’« intelligence artificielle » fiable et d’usage commode suppose un important travail humain pour collecter les données, conforter leur qualité, régler les paramètres de l’outil et tester sa performance.

Épisode suivant :  Vers un troisième « hiver de l'IA » ?
 ___
5 Michel Volle, Analyse des données, Economica, 1997, p. 233.  
6 Harold Hotelling, « Analysis of a Complex of Statistical Variables with Principal Components », 1933, Journal of Educational Psychology, 1933.
7 Jean-Paul Benzécri, L’analyse des données, Dunod, 1982.
8 Michel Volle, op. cit., p. 206.  
9 Gérard Dreyfus et alii, Apprentissage statistique, Eyrolles, 2008.  
10 Corinna Cortes et Vladimir Vapnik, « Support-Vector Networks », Machine Learning 20, 1995.
11 Cary Champlin, David Bell et Celina Schocken, « AI Medicine Comes to Africa's Rural Clinics », Spectrum, mai 2017.
12 Yichuan Tang, « Deep Learning using Linear Support Vector Machines », International Conference on Machine Learning, 2013.

Vers un troisième « hiver de l'IA » ?

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent :  Vers un troisième « hiver de l'IA » ?

Ce survol de l’histoire nous montre que l’IA a connu trois versions lors de chacune desquelles elle s’est donné un but particulier (simuler le raisonnement humain, automatiser l’expertise, informatiser le diagnostic). Chaque IA a connu le même parcours : annonces optimistes, premiers succès, puis difficultés imprévues et constat d’erreurs, enfin (pour les deux premières) « hiver » et gel de la recherche. La troisième IA est aujourd’hui confrontée à l’étape des difficultés et des erreurs. L’échec de Watson dans le diagnostic du cancer a frappé les esprits :

« Internal IBM documents show that its Watson supercomputer often spit out erroneous cancer treatment advice and that company medical specialists and customers identified “multiple examples of unsafe and incorrect treatment recommendations” »
(Casey Ross et Ike Swetlitz, « IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer treatments, internal documents show. », STAT, 25 juillet 2018.)

Certaines erreurs peuvent avoir de graves conséquences pour les personnes concernées :
« Dong Mingzhu, president of Chian's biggest air conditioning maker, had her image flashed up on a public display screen in the city of Ningbo, near Shanghai, with a caption saying she had illegally crossed the street on a red light. But Ningbo's facial recognition cameras had actually only caught an advert featuring her face on the side of a passing bus – a fact quickly spotted by Chinese citizens, who shared pictures of the alert on Weibo, a social network similar to Twitter. »
(Laurence Dodds, « Chinese businesswoman accused of jaywalking after AI camera spots her face on an advert », The Telegraph, 25 novembre 2018.)

Des essayistes évoquent avec insistance « les limites de l’intelligence artificielle15 ». L’examen des difficultés et erreurs montre qu’elles proviennent non des outils et méthodes de l’IA eux-mêmes, mais de trois problèmes distincts :
  • la qualité des données sur lesquelles l’IA est étalonnée ;
  • l’interprétation des résultats ;
  • la complexité de la relation entre l’informatique et l’action.

Pour comprendre la situation présente il faut replacer l'IA dans le cadre que Turing a considéré, celui de l'informatisation dont elle est une manifestation particulière.

Épisode suivant :  Place de l'IA dans l'informatisation
___
15 Jérôme Capirossi, « Les limites de l’intelligence artificielle », Les Échos}, 22 janvier 2018.

Place de l'IA dans l'informatisatipn

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent :  Vers un troisième « hiver de l'IA » ?

La qualité des données

Les difficultés rencontrées par Watson dans le diagnostic du cancer s’expliquent par le caractère artificiel de la base de données sur laquelle il avait été étalonné :

« Most of the data fed to it is hypothetical and not real patient data. That means the suggestions Watson made were simply based off the treatment preferences of the few doctors providing the data, not actual insights it gained from analyzing real cases. »
(Angela Chen, « IBM’s Watson gave unsafe recommendations for treating cancer », The Verge, 26 juillet 2018.)

Le problème est général : qu’il s’agisse des symptômes ou des diagnostics, beaucoup de bases de données sont sujettes à des biais racistes, sexistes ou autres, qui altèrent la couverture du domaine considéré, et aussi à des erreurs de codage ou à des lacunes dans l’observation de certains attributs17. Comme « garbage in, garbage out » ces défauts vont se retrouver dans les résultats que fournit l’IA.

Alors que le « Big Data » semble mettre toutes les données à disposition, seule une minorité d’entre elles semble d’une qualité suffisante pour alimenter une IA. L’insouciance trop répandue concernant la qualité des données sera la cause de nombreuses erreurs et difficultés :

« I make my living from data, yet I consistently find that whether I’m talking to students or clients, I have to remind them that data is not a perfect representation of reality: It’s a fundamentally human construct, and therefore subject to biases, limitations, and other meaningful and consequential imperfections. »
(Andrea Jones-Rooy, « I’m a data scientist who is skeptical about data », Quartz, 24 juillet 2019.)

L’interprétation des résultats

Comme l'analyse des données, l’IA la plus pointue ne fait qu'explorer des corrélations. Des « interprétations » qui s'appuient sur la seule statistique seront erronées ou naïves : les corrélations ne sont que des indices qui, comme dans une enquête policière, orientent vers la compréhension mais ne suffisent pas pour l'atteindre.

La tentation est cependant forte : Jean-Paul Benzécri a prétendu ainsi que l'analyse des données révélait « le pur diamant de la véridique nature19 ». Dans un livre consacré au Big Data et qui a eu beaucoup d’influence des essayistes ont érigé cette erreur en principe :

« Move away from the age-old search for causality. As humans we have been conditionned to look for causes, even though searching causality is often difficult and may lead us down the wrong paths. In a big data world, by contrast, we won't have to be fixed on causality; instead we can discover patterns and correlations in the data that offer us novel and invaluable insights. The correlation may not tell us precisely why something is happening, but they alert us that it is happening. »
(Viktor Mayer Schönberger et Kenneth Cukier, Big Data, Eamon Dolan/Mariner Books, 2014.)

Pour pouvoir interpréter les résultats d’une IA il faut en fait posséder une bonne connaissance de la théorie du domaine observé, car celui qui ignore la théorie tombera fatalement dans quelqu'une des naïvetés que l'expérience des théoriciens a depuis longtemps repérées  : une théorie, c'est le trésor des interprétations antérieures condensé sous la forme de liens de causalité entre les concepts – trésor qu'il faut souhaiter exempt du pédantisme et de l'étroitesse qui sont pour la théorie autant de maladies. L'observation dont les données résultent s'appuyait d'ailleurs elle-même sur une théorie (parfois implicite) qui lui a fourni ses concepts et dont il convient d'avoir au moins une intuition.

L’IA et l’action

« AI is great at applying "specific knowledge" and very poor at applying "general knowledge". Specific knowledge relates to rules, decision trees and algorithms that the system uses to process large amounts of data come up with specific recommendations or warnings. Whereas, general knowledge relates to general situational awareness. »

(Peter Green, « The Failure Of Artificial Intelligence In Manufacturing », Manufacturing.net, 10 avril 2017).

L’ordinateur est fait pour accomplir tout ce qui est programmable. Pour qu’un processus soit programmable il faut qu’il puisse être élucidé, prévisible et prévu. La programmation se construit donc dans le « petit monde » rationnel que délimite une grille conceptuelle et qui suppose aussi des hypothèses car l’action, visant toujours un résultat, postule nécessairement une causalité.

Chaque spécialité professionnelle a son langage et ses méthodes, faits pour accomplir efficacement l’action quotidienne et dont la maîtrise s’acquiert par la formation et l’expérience (d’un médecin, d’un militaire, d’un architecte, etc.). L’organisation d’une institution définit elle aussi un langage et des méthodes ainsi que la structure des pouvoirs de décision légitimes.

Le « petit monde » rationnel d’une spécialité ou d’une institution agit à travers le corps de professionnels qui l’ont assimilé jusque dans leurs réflexes. Informatiser l’action suppose d’expliciter la rationalité enfouie dans des habitudes.

Turing a cependant évoqué « the inadequacy of "reason" unsupported by common sense » : cela nous invite à élargir la réflexion.

Si le « petit monde » rationnel d’une spécialité, d’une institution, d’une entreprise, fournit les concepts et hypothèses favorables à l’efficacité, c’est en faisant abstraction de la complexité illimitée du monde réel sur lequel et dans lequel cette institution ou cette entreprise agissent. Or l’existence du monde réel se manifeste par des phénomènes étrangers au « petit monde » de la rationalité : pannes, incidents, accidents, comportements imprévisibles, rencontre enfin avec des êtres (clients, fournisseurs, partenaires) dont le langage est celui d'un autre « petit monde ».

Une extension de la raison est donc nécessaire pour pouvoir vivre dans le « monde réel » et non plus seulement dans un « petit monde » rationnel : nous nommerons la raison ainsi étendue « raison raisonnable » pour la distinguer de la « raison rationnelle ».

On rencontre cette raison raisonnable chez les stratèges et les entrepreneurs : confrontés à une situation sur laquelle ils n’ont qu’une information partielle et parfois fallacieuse, ils exercent sur le monde réel une vigilance périscopique qui leur procure le « coup d’œil » et leur permet de prendre intuitivement des décisions judicieuses malgré les incertitudes.

Dans les entreprises, des « animateurs » complètent eux aussi la raison rationnelle par le « bon sens » de la raison raisonnable : ils règlent les incidents dans la foulée et sans faire d’histoire, aident leurs collègues en cas de difficulté, créent la « bonne ambiance » qui donne une « âme » à l’institution21, etc.

Chacun est ainsi invité à cultiver deux formes de la raison : tandis que l’action professionnelle quotidienne, dont les habitudes et réflexes s’appuient sur des concepts et méthodes acquis lors d’une formation, bénéficie de la clarté de la raison rationnelle, la « raison raisonnable », vigilante, est attentive à prendre en compte les phénomènes du monde réel et complexe sur lequel l’action professionnelle agit et dont elle reçoit les effets.

L’informatique et l’IA ont vocation à prendre en charge le travail répétitif, l’action réflexe et en définitive tout ce qui, étant programmable, relève de la raison rationnelle. Dans une économie informatisée les humains doivent consacrer leur attention, leur activité, à ce qui n’est pas répétitif : surveiller le monde réel, interpréter une situation, répondre à un imprévu, prendre une initiative, manifester une créativité, etc.

En ce sens l’IA nous libère : n’a-t-on pas assez déploré l’aliénation que provoque une action répétitive ?

L’IA risque cependant de subir de nouveau l’hiver qui suit l’éclatement d’une bulle spéculative. Ce ne serait en un sens que justice tant les annonces et attentes ont été excessives. Des expressions comme « intelligence artificielle », « réseau neuronal », « apprentissage profond », etc. ont malencontreusement fait éclore dans le grand public, les médias, ainsi que chez les dirigeants de la politique et des entreprises, des images dont la puissance suggestive est sans rapport avec la réalité scientifique, technique et pratique, et éveillé tout un monde de chimères dont la plus suggestive est la « singularité22 » de Kurzweil.

Les coupables ne sont pas les spécialistes et praticiens de l’intelligence artificielle, qui savent exactement de quoi il s’agit, mais des essayistes amateurs de science-fiction qui se sont laissé entraîner par leur imagination, des médias avides de sensationnel et aussi, il faut le dire, des charlatans vendeurs de « snake oil »: « Companies advertising AI as the solution to all problems have been helped along by credulous media » « Much of what’s being sold as "AI" today is snake oil. It does not and cannot work23 ».

Arvind Narayanan estime que la troisième IA est :
  • efficace et en progrès rapide pour le diagnostic, qui doit cependant être complété par une interprétation : reconnaissance d'images, reconnaissance faciale, diagnostic médical, transcription écrite de la parole, repérage des « deepfakes ». Certaines de ces applications posent cependant des problèmes d'éthique ;
  • imparfaite mais en progrès pour l'automatisation de l'évaluation : détection des spams, « hate speechs » et plagiats, diffusion sélective, etc.. Des erreurs étant inévitables, ces applications demandent un contrôle humain attentif ;
  • inadéquate pour la prédiction qu'il s'agisse de la récidive pour les criminels, de la performance d'un salarié, du risque terroriste, du comportement futur d'un enfant, etc. : les résultats sont douteux et posent en outre d'évidents problèmes d'éthique.

En rejetant les chimères nous risquons cependant de rejeter aussi ce que l’IA apporte de précieux : une réflexion sur le fond s’impose.

Épisode suivant : Éthique de l’IA
___
17 Caliskan, A., Bryson, J. J. et Narayanan, A., « Semantics derived automatically from language corpora contain human-like biases », Science, 356, 2017.
19 Jean-Paul Benzécri, L’analyse des données, Dunod, 1984.
21 « Une étude de l'ESCP sur près de 300 entreprises démontre que 9 % des collaborateurs s'arrachent pour faire avancer les choses, 71 % n'en ont rien à faire et 20 % font tout pour empêcher les 9 % précédents d'avancer » (Georges Épinette, Antémémoires d’un dirigeant autodidacte, CIGREF et Nuvis, 2016).
22 Ray Kurzweil, The Singularity is Near, Viking, 2005.
23 Arvind Narayanan, « How to recognize AI snake oil », Princeton University, 18 novembre 2019.

Ethique de l'IA

(Cet épisode fait partie de la série "Dynamique et ressort de l'intelligence artificielle".)

Épisode précédent :  Place de l'IA dans l'informatisation

Des dangers illusoires sont évoqués à propos de l’informatisation et de l’IA : « trop d’information tue l’information », « l’automatisation supprime les emplois », etc. Depuis des siècles cependant les lecteurs doivent choisir leurs lectures parmi de nombreux livres, et par ailleurs l’informatisation n’a fait apparaître aucune inflexion dans les statistiques de l’emploi.

Le plus grand danger de l’IA réside cependant dans la possibilité d’estimer le diagnostic porté sur une personne à partir du constat de quelques symptômes, car elle offre au dictateur paranoïaque d’un régime totalitaire l’arme absolue de la répression. Les indiscrétions commises par la NSA24, la systématisation de la reconnaissance faciale et de l’observation des comportements en Chine, sont autant de manifestations de ce danger25.

Un autre danger réside dans une articulation défectueuse entre l’action humaine et l’automatisation, qui peut conduire à des catastrophes comme celle du Boeing 737 Max26 :
  • les directions générales sont souvent tentées de programmer l’action des agents humains comme s’ils étaient des automates, les privant ainsi du droit à l’initiative et à l’exercice de la raison raisonnable ;
  • les concepteurs d’un système d’information sont, symétriquement, souvent tentés de programmer la réponse de l’ordinateur à tous les incidents et accidents prévisibles, ce qui conduit leur projet à l’échec comme ce fut le cas pour le projet Louvois de calcul de la rémunération des militaires de l’armée française27.
Nous rencontrons ici des exigences éthiques. Pour les éclairer, il est utile de se rappeler que le mot « informatique » fusionne les mots « information » et « automate », en prenant le mot « information » au sens que lui donne Gilbert Simondon :
« L'information n'est pas une chose, mais l'opération d'une chose arrivant dans un système et y produisant une transformation. L'information ne peut pas se définir en dehors de cet acte d'incidence transformatrice et de l'opération de réception » (Gilbert Simondon, Communication et information, Éditions de la transparence, 2010, p. 159).
L’« information » est de ce point de vue le phénomène qui se produit lorsque la rencontre d’un document donne, à un système ou une personne capables de l’interpréter, la « forme intérieure » qui leur procure une capacité d’action. L’informatisation a ainsi fait émerger un être nouveau, le « cerveau d’œuvre » qui a vocation à remplacer la main d’œuvre dans l’emploi : après la symbiose de l’être humain avec la parole, puis avec l’écriture, notre époque réalise sa symbiose avec l’ordinateur qui a été prévue dès la fin des années 50 par le psychologue Joseph Licklider :
« The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today. »
(Joseph Licklider, « Man Computer Symbiosis », IRE Transactions on Human Factors in Electronics, mars 1960).
L’organisation d’une institution doit pour être efficace assurer une synergie des cerveaux d’œuvre dans l’action collective. Cela suppose une réflexion approfondie28 sur les conditions pratiques de la mise en œuvre de l’intelligence « à effet différé » incorporée dans les programmes informatiques et associée dans l’action à l’intelligence « à effet immédiat » des agents opérationnels : elle implique d'automatiser ce qui doit l'être et seulement ce qui doit l'être. Cette réflexion est cependant trop rare, car les entreprises adhèrent encore à une forme d'organisation désuète :
« Les approches bureaucratiques ignorantes de la nature du travail cherchent à éliminer toute pensée, activité coûteuse dont la rentabilité n'est pas immédiatement perceptible. D'où l'échec que le « perfectionnement » des procédures ne fera qu'amplifier. L'application trop systématique d'idées parfaitement logiques peut engendrer des catastrophes » (Laurent Bloch, Systèmes d'information, obstacles et succès, Vuibert, 2005).
Rares sont actuellement les entreprises qui articulent raisonnablement les deux formes de l'intelligence29 : la plupart des « systèmes d'information » présentent des défauts évidents30 :
  • la qualité des données est défectueuse et leur signification est altérée par des synonymes et des homonymes : c'est comme nous l'avons vu un des plus grands obstacles pour l'IA ;
  • l'informatisation des processus se limite trop souvent à graver dans le marbre les défauts du processus existant (erreurs d'adressage, délais aléatoires dus à des piles LIFO (Last In, First Out.) sur les bureaux, redondances, etc.) ;
  • enfin et surtout le contrôle du travail est poussé à l'extrême, stérilisant l'initiative et la responsabilité des agents :
« Théoriquement l'informatisation devait faciliter le travail, mais en réalité elle a poussé les managers à opprimer les agents opérationnels avec des contrôles et une optimisation continus. Les ordinateurs, robots et algorithmes ne sont pas à notre service, c'est nous qui devons les servir. Ils mesurent tout ce que nous faisons et calculent pour voir s'il est possible de nous exploiter encore davantage. Les managers se focalisent sur l'idée de produire ou livrer les biens et les services plus rapidement et pour un moindre coût. Mais on ne mesure que ce qui est mesurable. On ne sait pas quantifier la qualité de la relation des agents avec les clients : établir la confiance demande du temps. Tout exprimer sous la forme de règles et de normes, cela empêche assurément l'innovation32. » (Gunter Dueck, « Sklaven der Prozesse », Der Spiegel, 8 février 2020.)
Tout se passe comme si notre époque, notre société, nos institutions refusaient de comprendre le phénomène de l'informatisation : elles le masquent en utilisant un vocabulaire inexact (« numérique », « digital »), elles refusent de redéfinir la mission et l'organisation des institutions, elles refusent aussi de se plier aux conditions nécessaires de l'efficacité dans un monde que l'informatique a transformé. L'intelligence artificielle, telle qu'elle s'est déployée en plusieurs étapes séparées par autant d'« hivers », est l'une des manifestations les plus hardies, les plus inventives de l'informatisation. Les difficultés qu'elle rencontre ne peuvent être comprises et surmontées que si on sait les situer et les interpréter en revenant à l'intuition fondatrice de Turing et dans le cadre conceptuel plus général de l'informatique.

Épisode suivant : Futur de l'IA
 ___  
25 CNIL, « Reconnaissance faciale : pour un débat à la hauteur des enjeux », 15 novembre 2019.
26 Jack Nicas, Natalie Kitroeff, David Gelles et James Glanz, « Boeing Built Deadly Assumptions Into 737 Max, Blind to a Late Design Change », The New York Times, 1er juin 2019, .  
27 Philippe Reltien, « Des milliers de soldats français endettés à cause de Louvois, leur logiciel de paie », France Culture, 26 janvier 2018.  
28 Michel Volle, iconomie, Economica, 2014.  
29 Gunter Dueck, Heute schon einen Prozess optimiert? Das Management frisst seine Mitarbeiter, Campus, 2018.  
30 Michel Volle, « Système d'information », Encyclopédie des techniques de l'ingénieur, juillet 2010, .  
32 « Theoretisch sollte die Digilitasierung uns das Arbeiten erleichtern, aber in der Realität führt sie dazu, dass das Management seine Mitarbeiter mit Dauerkontrollen on ständiger Optimierung quält. Die Computer, die Roboter und Algorithmen dienen nicht uns – wir dienen ihnen. Sie messen alles, was wir tun, und berechnen, wie sie noch mehr aus uns rausholen können. Die Manager sind fixiert auf die Idee, Produkte oder Dienstleistungen immer schneller und billiger herzustellen oder zu liefern. Aber es wird eben nur das gemessen, wa messbar ist. Es lässt sich nicht quantifizieren, ob die Chemie zwischen Mitarbeiter und Kunden stimmt : Vertrauen braucht Zeit. Wird alles in Normen und Regeln gepresst, verhindert das zuverlässig jede Innovation. »