(Article écrit avec Pierre Musso et destiné au numéro 10 de la revue Etudes digitales)
Dans les années 1935-50, à la veille, pendant et au sortir de la deuxième Guerre mondiale sont nées à la fois l’informatique (Turing/von Neumann) qui crée un nouveau « système technique » au sens de Bertrand Gille1, et une vision du monde associée, à savoir la cybernétique (Norbert Wiener). Comme l’a bien montré Jean-Pierre Dupuy, le point de départ commun à l’informatique et à la cybernétique avait été la révolution de la logique des années 1930-36 avec l’arithmétisation de la logique de Kurt Gödel et l’émergence de la notion abstraite de machine qu’Alan Turing proposa de formaliser en défendant que toute fonction calculable mathématiquement l’est aussi par une calculatrice arithmétique (« machine de Turing »). Ainsi, résume Jean-Pierre Dupuy, « machine artificielle ou matérielle, d’un côté, logique comme machine, de l’autre, sont liées par un rapport d’identité2 ». De leur origine conceptuelle commune, cybernétique et informatique partagent certains concepts : l’information, la communication, la rétroaction, les algorithmes, la programmation, etc. et Turing comme von Neumann ont participé aux fameuses conférences de la fondation Macy (de 1942 à 1953) d’où est issue la cybernétique.
Nous sommes les héritiers de ces deux mutations majeures : d’une part, celle de l’informatisation qui est un nouveau système technique toujours en développement notamment par sa fusion avec les télécommunications, et d’autre part, celle de l’idéologie3 cybernétique qui à l’origine fut une utopie chez Wiener avant de devenir un cadre de pensée.
En amont de ces deux disciplines et de la révolution de la logique des années 30, il y a une même vision du monde occidental qui traite - depuis qu’Aristote introduisit un modèle technologique pour expliquer le vivant - des rapports de l’homme et de la machine. Le rêve d’une « machine intelligente » ou autonome et le mythe d’un mode de fonctionnement similaire chez le vivant et la machine hantent la pensée occidentale depuis l’Antiquité. Avec la seconde guerre mondiale s’est opérée la cristallisation foudroyante de ces utopies dans le couple informatique/cybernétique.
Si aujourd’hui l’informatique et la cybernétique sont dissociées, et même perçues par certains comme des phénomènes du passé, en fait elles demeurent très actives mais sous des formes différentes : la première sous la forme de l’informatisation de la société et de l’économie, qualifiées de « numériques », et la seconde considérée comme paradigme de la pensée rationnelle et calculatrice.
Le philosophe et historien des sciences Georges Canguilhem a proposé pour analyser l’histoire de la biologie, quelques concepts que nous reprenons pour éclairer l’articulation de l’informatique et de la cybernétique. Il distingue « l’idéologie scientifique » qui a une histoire et une fin car elle va être « investie par une discipline qui fait la preuve opérativement, de la validité de ses normes de scientificité » de « l’idéologie de scientifiques, c’est-à-dire que les savants engendrent par les discours qu’ils tiennent (….) sur la place qu’elle occupe dans la culture4 ». On peut ainsi distinguer trois notions : d’abord, « l’idéologie scientifique » qui est une protoscience ou une pensée préscientifique, ensuite, la rupture épistémologique que marque la naissance d’une science informatique et enfin, « l’idéologie de scientifiques », en l’occurrence la cybernétique, qui vient se greffer sur la science informatique en gestation pour produire un paradigme post-scientifique. Tout se passe comme si « l’idéologie scientifique » se dissociait en deux « branches » : d’un coté son versant scientifique, ici l’informatique, et de l’autre, son versant philosophico-idéologique, ici la cybernétique. Par la suite, au-delà des années 1965, ces deux blocs issus de la même racine dérivent tels des « icebergs » en suivant deux trajectoires séparées : l’une dynamique, l’informatique devient informatisation généralisée et l’autre ossifiée, la cybernétique se fige en un « modèle » ou un paradigme.
Nous nous proposons d’examiner d’abord, la vision du monde longuement élaborée en Europe qui se cristallise dans les années 1935-50, dans l’informatique et la cybernétique aux États-Unis, soit une « idéologie scientifique » (1), ensuite de distinguer la rationalité informatique (2) de l’idéologie cybernétique (3) ; enfin, nous verrons leur devenir, avec d’un côté l’informatisation généralisée constituant le système technique contemporain et de l’autre, la formation d’un paradigme culturel, soit une « idéologie de scientifiques » (4).
1. La quête d’une « machine intelligente » : une « idéologie scientifique » européenne.
« Il y a toujours une idéologie scientifique avant une science dans le champ où la science viendra s’instituer5 » affirme Canguilhem. Ce fut le cas pour l’informatique inventée entre 1935 et 1950, dans le contexte de la seconde Guerre mondiale aux États-Unis. En amont, s’est lentement développée une sorte de proto-science antérieure à la constitution et à la formalisation d’une science.
A l’origine, il y a un rêve ou un mythe qui sert de moteur aux recherches. Réaliser des automates ou des machines dites « intelligentes » et autonomes est un vieux rêve de l'humanité (mythe du Golem) que Descartes définit comme « ce qui se meut de soi » (Passions de l’âme art. VI). Ce rêve fut régulièrement revisité et devient un mythe moderne avec les débuts de l’industrie mécanique : il est mis en fiction dans Frankenstein, le roman de Mary Shelley en 1816.
La première machine à calculer numérique date de la naissance de la science moderne vers 1620. Elle est due à Wilhelm Schickard, un horloger, astronome et mathématicien de l’Université de Tübingen et ami de Kepler. Réalisée en 1623, et dénommée « horloge calculante », elle fit l'objet d'une description complète dans une lettre à Kepler, mais fut détruite par un incendie en 1624 (et reconstruite en 1960). Il écrit à son ami : « Très illustre et excellent Maître Képler, ce que tu as réalisé sur le plan algébrique, je l'ai dernièrement tenté sous une forme mécanique : j'ai conçu une machine composée de onze roues complètes et de six roues mutilées ; elle calcule à partir de nombres donnés d'une manière instantanée et automatique, car elle ajoute, retranche, multiplie et divise. Cela te divertirait fort de voir par toi-même comment cette machine accumule et transporte spontanément vers les rangs de gauche une dizaine ou une centaine, et comment, au contraire, elle retranche la retenue à propos d'une soustraction6. »
Un peu plus tard la première machine à additionner est conçue par Pascal en 1641 et réalisée en 1645. Connue sous le nom de « Pascaline » et initialement dénommée « machine d’arithmétique », cette calculatrice mécanique fut fabriquée en de nombreux exemplaires au XVIIe siècle. En 1673 Leibniz ajouta une interface de multiplication et de division automatique à la pascaline : pour cela, il invente son fameux « cylindre cannelé ». Complètement réalisée en 1694, cette machine comporte un tambour à dents inégales. Au XVIIIe siècle on construira un très grand nombre de machines à calculer.
Au début du XIXe siècle Charles Babbage conçoit en 1820 un calculateur mécanique universel, sa Difference Engine ou « machine à différences » en définissant toutes les fonctions nécessaires à sa réalisation : entrées/sorties des données, mémorisation interne, transfert des données, opérateur arithmétique, programmeur/organe de commande, préfigurant tous les organes d’un ordinateur. En 1834, il associe les cartes du métier Jacquard à une machine à calculer et imagine une « machine analytique », l’ancêtre des ordinateurs. Il la dote de mémoires, d’imprimantes, d’une unité centrale de calcul, d’un lecteur de cartes pour les données et d’un autre pour les cartes de programmes et crée le premier langage machine de programmation. Cette machine ne fut jamais construite.
En 1937, Claude Shannon, ingénieur et mathématicien du M.I.T. et plus tard des Bell Labs, montre que les règles de l'algèbre de Boole applicables à tout raisonnement logique sont réalisables à l'aide de circuits à relais électriques. Il explique comment construire des machines à relais en utilisant cette algèbre booléenne pour décrire l’état des relais (1=fermé, 0=ouvert).
Au même moment dans un article de 19367, Alan Turing imagine un automate algorithmique universel qui serait une machine « intelligente » universelle capable de réaliser automatiquement toutes les opérations que peut faire un calculateur humain. Cette « machine de Turing » est un modèle abstrait, un objet conceptuel et mathématique, servant à définir le fonctionnement des appareils mécaniques de calcul. Elle vise à expliquer la notion de « procédure mécanique » ou « d’algorithme ».
Dans un article de 19508, Turing définit le test qui permettrait de dire qu’il n’existe pas de différence perceptible entre l’intelligence humaine et celle de l’automate (« pari de Turing »). S’il fait le pari que d'ici cinquante ans, il n’y aura plus moyen de distinguer la réponse à une question donnée par un homme ou par un ordinateur, la dernière phrase de son ultime article9 relativise cependant cette hypothèse en évoquant « the inadequacy of ‘reason’ unsupported by common sense ».
En 1945, dans le cadre du programme EDVAC (Electronic Discrete Variable Automatic Computer), John Von Neumann, mathématicien et physicien, définit l’architecture qui s’imposera par la suite à tous les ordinateurs (l’« architecture de von Neumann10 »). Elle comprend une unité arithmétique et logique pour réaliser les calculs ; une unité de contrôle chargée du « séquençage » des opérations ; une mémoire contenant à la fois les données et le programme qui indiquera les calculs à faire sur ces données ; enfin des dispositifs d’entrée-sortie permettant à l’ordinateur de communiquer avec le monde extérieur. Il attribue à Alan Turing la paternité du modèle de calculateur à programme auquel son nom reste attaché.
Comme Turing, von Neumann s’intéresse aux analogies et différences qui peuvent exister entre l’ordinateur et le cerveau humain : il leur consacrera son dernier livre11 auquel il attachait la plus grande importance mais que sa mort précoce laissera inachevé.
La longue quête philosophique et scientifique d’une machine « intelligente » aboutit à l’invention de l’ordinateur et de l’informatique.
2. L’informatique, la rationalité techno-scientifique
Un automate est une machine qui accomplit exactement, et dans l’ordre, les opérations pour lesquelles elle a été conçue. La liste de ces opérations n’est pas nécessairement écrite sous la forme d’un programme car elles peuvent résulter de l’enchaînement d’une série d’actions mécaniques.
Dans l’Antiquité, les Grecs ont conçu des automates pour susciter l’étonnement lors des spectacles et des cérémonies religieuses. Plus près de nous, en 1739, le « canard digérateur » de Vaucanson sait imiter le vrai canard qui mange et rejette des excréments. Le métier Jacquard de 1801 est un automate qui obéit à un programme inscrit sur un carton perforé mais il ne sait accomplir qu’un seul type d’opération : le tissage.
Il a fallu un étonnant effort d’abstraction pour mettre toute application entre parenthèses et concevoir un automate programmable, fait pour accomplir tout ce qu’il est possible de programmer et auquel le réseau de l’Internet a conféré l’ubiquité. Cet automate programmable ubiquitaire, c’est l’ordinateur : la puissance de calcul de son processeur lui confère une rapidité qui lui permet de simuler (et parfois de surpasser) certaines des fonctions de l’intelligence humaine, et grâce à des équipements périphériques (bras des robots, ailerons des avions, etc.), il semble accomplir la promesse ancestrale de la magie car la parole inscrite dans le texte du programme fait se mouvoir des choses ayant masse et volume.
Les fondateurs de l’informatique que nous connaissons et pratiquons n’étaient ni des esprits étroits ni des gourous, mais des penseurs sérieux et profonds : des théoriciens comme Alan Turing et John von Neumann et aussi des praticiens comme Grace Hopper (inventeur de la programmation), John Backus (inventeur du compilateur et créateur du langage Fortran), Alan Kay (inventeur de la programmation « orientée objet »), John McCarthy (inventeur de l’intelligence artificielle et du langage fonctionnel LISP), Donald Knuth (auteur de The Art of Computer Programming), etc.
Pour comprendre l’informatisation, il faut l’avoir expérimentée dans les organisations, notamment les entreprises, et avoir médité les écrits de ces penseurs. A la différence de leurs grands précurseurs, Pascal et Leibniz, ils ne prétendaient pas être des « philosophes » mais ont pourtant produit de l’excellente philosophie : « In mathematics we are usually concerned with declarative (what is) descriptions, whereas in computer science we are usually concerned with imperative (how to) descriptions12 ». L’informatisation incite en effet à adopter la philosophie pragmatique de Charles Sanders Peirce et de William James, selon laquelle « le sens d’une expression réside dans ses conséquences pratiques », développée aux États-Unis à la charnière des XIXe et XXe siècles pour répondre à la situation créée par une industrialisation très rapide.
Les mots « informatique » et « informatisation » ont cependant été victimes d’un phénomène culturel et sociologique. Les informaticiens des institutions et des entreprises dans les années 60 et 70 se sont rendus insupportables par leur dogmatisme, leur étroitesse et leur suffisance. Leur mainmise sur les outils de l’informatique n’a cessé qu’à partir des années 1980 avec la diffusion des micro-ordinateurs (à laquelle ils ont résisté longtemps) puis dans les années 1990 avec la bureautique et le Web.
Il fallait cependant donner un nom au phénomène que cette évolution faisait émerger. On a préféré parler de « dématérialisation » dans les années 2000, puis de « numérique » ou de « digital » dans les années 2010. Mais l’étymologie de ces derniers mots, très pauvre, évoque le codage binaire des programmes et documents au risque d’ignorer les autres dimensions du phénomène.
Prenons le mot « information » - qui est un terme de philosophie - au sens de Gilbert Simondon : l’information est ce qui donne une « forme intérieure », c’est-à-dire une capacité d’action, à l’être (personne ou système) capable de l’interpréter13. L’étymologie du mot « informatique », qui allie « information » et « automate », embrasse la relation entre l’ordinateur et l’être humain et outrepasse ainsi les connotations étroitement techniques dans lesquelles il a été enfermé. Le mot « informatisation », qui évoque la dynamique d’une histoire, peut alors désigner les transformations que l’informatique apporte aux institutions et à la société. La miniaturisation continue de ses composants et l’augmentation de ses capacités (« loi de Moore ») ainsi que son alliance avec les télécommunications l’ont diffusée et banalisée dans toutes les activités et en ont fait une informatique ubiquitaire et pervasive.
3. La cybernétique, « une idéologie de scientifiques »
La cybernétique déclare être une science et même une « science générale » voire « la synthèse d’une série de disciplines qui étaient étudiées séparément14 ». Abraham Moles la définit comme une « science générale des organismes, indépendante de la nature physique de ceux-ci15 ». En fait, du point de vue épistémologique, elle est une « idéologie de scientifiques » pour reprendre la terminologie de Canguilhem. C’est un ensemble de discours sur la culture et la société élaborés à partir de la rationalité informatique. Son fondateur, le mathématicien américain Norbert Wiener, la formule en parallèle à l’invention de l’ordinateur par Turing et von Neumann. Comme idéologie de savants, elle est un « fait social total » (au sens de Marcel Mauss) car elle propose ou impose des représentations sociales, un imaginaire et même des politiques. Elle est d’autant plus puissante qu’elle s’est greffée sur l’informatique qu’elle a interprétée en livrant une vision du monde basée sur l’information et la communication.
Le père fondateur de la cybernétique est Wiener qui dès 1942, cosigne un article intitulé « Behavior, Purpose and Technology » dans lequel apparait le terme de communication16. Ce premier article publié dans la revue Philosophy of Science, très behavioriste, est co-signé avec Arturo Rosenblueth, un physiologiste mexicain, et avec l’ingénieur Julian Bigelow. Les auteurs défendent l’idée que la forme des relations entre l’être vivant et la machine, et non leur contenu, est décisive, d’où leur axiome : « Une analyse comportementale uniforme est applicable à la fois aux machines et aux organismes vivants. »
La définition de la cybernétique chez Wiener est très large, il s’agit d’une philosophie cherchant à définir un nouveau paradigme, celui de « la communication ». Dans Cybernetics publié à Paris en 1948, Norbert Wiener définit la cybernétique comme « le champ entier de la théorie de la commande [control] et de la communication, tant dans la machine que dans l’animal ». Wiener vise une « théorie des messages » considérés « en tant que moyens de contrôle sur les machines et la société, le développement des machines à calculer et autres appareils automatisés analogues, certaines considérations sur la psychologie et le système nerveux, et une nouvelle théorie expérimentale de la méthode scientifique ». C’est ce « complexe d’idées » qui est désigné par la « cybernétique », mot dit-il, que « j’ai fait dériver du mot grec κυβερνήτης, « pilote », le même mot grec dont nous avons fait notre mot « Gouverneur » ; « Le but de la cybernétique est de développer un langage et des techniques qui nous permettent effectivement de nous attaquer au problème de la régulation des communications en général ». Il s’agit d’une philosophie de la communication et de la régulation applicable à tous les êtres vivants et artificiels. Wiener se déclare comme le continuateur de Leibniz : « Leibniz dominé par des idées de communication, est à plus d’un titre l’ancêtre intellectuel des idées contenues dans cet ouvrage, car il s’occupa également de calcul mécanique et d’automates17 ». Il élargit tellement l’objet de la « pensée cybernétique » qu’il en fait un « type particulier d’activité mentale dont le but est l’efficacité dans le guidage de l’action ». Il s’agit bien d’une philosophie de l’action « efficace », d’où ses nombreux points de rencontre avec le management. Il faut noter que la « révolution cybernétique18 » est contemporaine de la « révolution managériale » annoncée en 1941 par James Burnham19.
Norbert Wiener est un prophète qui a attiré à lui des philosophes, des sociologues, des linguistes, des psychologues, des ethnologues, des mathématiciens, des biologistes, et aussi des spécialistes de l’informatique. Grâce aux conférences Macy pilotées par le neuropsychologue Warren Mc Culloch, Wiener réunit autour de lui l’anthropologue Gregory Bateson, les logiciens Walter Pitts et le jeune Julian Bigelow ou encore le cardiologue Arthur Rosenblueth20. En 1949, Heinz von Foerster, physicien « biologiste », spécialisé dans l’ingénierie électrique, est invité aux conférences Macy par McCulloch : il deviendra le chef de file de la seconde cybernétique, en insistant sur la capacité d’auto-organisation des êtres vivants.
Leur but commun est de repenser le monde ainsi que tous phénomènes naturels, artificiels ou humains, en termes de communication et d’information. Warren McCulloch et le mathématicien Walter Pitts soutiennent que l’esprit est « dans la tête », cerveau et esprit ne faisant qu’un, et que les organismes sont comparables à des machines. Plus tard, McCulloch identifiera cerveau, esprit et ordinateur : « Le cerveau peut être apparenté à un calculateur numérique » ou encore, « le cerveau est une machine logique21 ».
Comme les informaticiens, les cybernéticiens mobilisent la métaphore de l’organisme pour penser le fonctionnement de la machine et le comparer à celui du cerveau. Mais les cybernéticiens vont plus loin : ils assimilent l’organisation sociale à un organisme dont la régulation est comparable à celle d’un cerveau-ordinateur. Ils peuvent donc traiter du gouvernement des hommes sur le mode d’un automate. Ainsi Stafford Beer, professeur associé de cybernétique à Manchester et responsable de la recherche opérationnelle à l’United Steel, affirme dans Neurologie de l’entreprise que la direction générale étant « l’activité cérébrale » de l’entreprise, il faut un système de contrôle comparable au « système nerveux humain », car, dit Beer, « le cerveau est un ordinateur électrochimique ». L’analogie homme/machine, constamment revendiquée par les cybernéticiens, va jusqu’à supposer abolie la différence entre machines automatiques et êtres vivants.
Pour Wiener, une telle analogie résulterait du fait que « la synapse dans l’organisme correspond au commutateur dans la machine ». Au nom de « l’efficacité », l’homme serait programmable comme un ordinateur et le gouvernement pourrait être un automate ou un algorithme.
Si John McCarthy a inventé en 1956 l’expression « intelligence artificielle », c’était pour fournir à l’informatique une autre orientation que celle qu’avait indiquée la cybernétique : « One of the reasons for inventing the term "artificial intelligence" was to escape association with "cybernetics". Its concentration on analog feedback seemed misguided, and I wished to avoid having either to accept Norbert Wiener as a guru or having to argue with him22. » Cela invite à creuser comment agit le couple que forment le cerveau humain et l'ordinateur : « The strongest chess player today is neither a human, nor a computer, but a human team using computers23 »
La pensée cybernétique va produire de multiples concepts, d’où la force de sa diffusion : notamment ceux de communication, de feed-back ou rétroaction, d’information et d’entropie entendue comme le désordre inverse de l’ordre généré par l’information, de régulation - et d’autorégulation dans la deuxième cybernétique de von Foerster – ceux de « systémique », de « complexité » ou d’« émergence ». Le concept clef est celui de feed-back ou servo-mécanisme, opération en retour ou « par récurrence », pour définir le modèle de tout être vivant et de toute machine et on le retrouve dans tout « système cybernétique ». Quant à l’information elle est définie par Wiener comme l’inverse de l’entropie (et du chaos) : « Information est un nom pour désigner le contenu de ce qui est échangé avec le monde extérieur à mesure que nous nous y adaptons et que nous lui appliquons les résultats de notre adaptation. » L’accent mis sur la rétroaction, phénomène essentiellement mécanique, a cependant entravé la réflexion des cybernéticiens sur les automates et leur conception de l’« information » est moins précise, moins opératoire que celle donnée par Gilbert Simondon dans Information et communication : « L'information n'est pas une chose, mais l'opération d'une chose arrivant dans un système et y produisant une transformation. L'information ne peut pas se définir en dehors de cet acte d'incidence transformatrice et de l'opération de réception24 ».
4. Le devenir de l’informatique et de la cybernétique
Les deux disciplines - la science informatique et « l’idéologie de scientifiques » cybernétique - ont suivi deux chemins différents après la disparition de leurs trois fondateurs (Turing meurt en 1954, von Neumann en 1957 et Wiener en 1964). La cybernétique atteint son apogée dans les années cinquante mais elle va sombrer sous les critiques et l’opprobre durant la décennie suivante.
Dans les années 50, elle est considérée comme un ensemble de théories et une vision de « l’action efficace » complémentaire du management.
Lors du deuxième congrès international de cybernétique qui se tient à Namur en 1958, à l’invitation de l’Association internationale de cybernétique, l’Italien Giuseppe Foddis lance : « C’est un nouvel humanisme, beaucoup moins individualiste mais énormément plus rentable, qui peut naître de l’application consciente de la cybernétique25. » C’est pourquoi la cybernétique a pu se diffuser dans le monde entier, y compris dans l’ex-URSS où le XXIIe Congrès du Parti Communiste recommande dès 1959 « l’emploi intense de la cybernétique ». Elle devient un modèle ou un paradigme, non seulement en s’articulant au management, mais aussi à la pensée néo-libérale. En effet, Friedrich von Hayek participa à plusieurs colloques de cybernétique dont une conférence sur l’auto-organisation en 1968, organisée par Heinz von Foerster, et à l’un des derniers colloques, organisé en 1979 aux États-Unis, sur les théories de l’auto-organisation, Autopiesis, Dissipative Structures and Spontaneus Social Orders, montrant qu’il existe « indubitablement une parenté entre la philosophie libérale et le thème général de l’auto-organisation ou de l’autopoïese26 ». Comme le résume Louis Rougier, un de ses disciples français : « sur les marchés libres existe un feed-back stabilisateur qui s’appelle le mécanisme des prix (…) L’autorégulation est peut-être, le principe fondamental de l’Univers27. »
La cybernétique est ainsi devenue une véritable métaphysique pour dire l’homme programmable et la « gouvernance par les nombres » (Alain Supiot28). La cybernétique alliée, aux dogmes managérial et néo-libéral, a pris valeur de paradigme, voire de « religion » pour le philosophe Erich Fromm, car elle répond à la recherche, pendant et après la seconde Guerre Mondiale, d’une vision du monde renouvelée, rationnelle, scientifique et automatique dans laquelle l’homme rationnel et calculateur serait le maître du monde grâce à une boite noire programmée gérant des inputs et des ouputs. « La cybernétique, dit Merleau-Ponty, est la science des machines à information […] qui sont avant tout des émetteurs-récepteurs29. »
En réponse à cette « idéologie de scientifiques » devenue métaphysique, on peut aujourd’hui défendre le paradigme de l’informatique à condition de prendre ce mot selon la profondeur de son étymologie, qui rassemble le cerveau humain (celui qui reçoit et interprète l’information qui lui donne une « forme intérieure ») et l’automate programmable ubiquitaire : il ne faut pas laisser se perdre la puissance de ce potentiel, même si cela exige de surmonter les obstacles du langage courant et d’oser passer pour « ringard » aux yeux des « modernes ».
Ce mot, ainsi conçu, enveloppe la dialectique de l’automate et de l’action humaine, que cette dernière soit celle d’un individu, « personne physique », ou d’une institution, « personne morale ». Cette dialectique permet de rendre compte du phénomène de l’informatisation selon ses dimensions psychologique, sociologique, philosophique, économique et technique : ces dimensions se déploient dans l’histoire selon une dynamique dont le ressort, tendu à chaque instant dans une situation particulière, les propulse vers un futur. Il suffit pour percevoir cette dynamique de considérer l’évolution qui, partant de la mécanographie (jusqu’aux années 50) est passée par les mainframes (macro-ordinateurs) si chers à IBM auxquels seuls les opérateurs avaient accès (années 60), puis par l’ouverture aux utilisateurs avec les grappes de terminaux (années 70) et la mise à disposition de micro-ordinateurs dotés d’une interface commode (années 80), par la bureautique communicante avec le Web et la messagerie (années 90), le commerce électronique, l’informatisation du téléphone mobile, la réalité virtuelle et l’impression 3D (années 2000), le « cloud », le big data, l’intelligence artificielle et la blockchain (années 2010), demain l’Internet des objets, etc30.
Conclusion
Nous avons distingué l’informatique comme science et technique qui ne cesse de se développer et de s’enrichir, alors qu’elle est souvent méprisée, voire « ringardisée », de la cybernétique qui, elle, est devenue une sorte d’inconscient collectif alors qu’elle ne fut qu’une idéologie de savants figée et ossifiée donnant à penser l’homme programmable, la gouvernance par les nombres et l’autorégulation des systèmes complexes. De façon paradoxale, la cybernétique délaissée par les sciences est vulgarisée, alors que l’informatique comme science est socialement dévalorisée. Toutefois toutes deux ont mis en avant la relation cerveau-ordinateur : simple métaphore ou outil heuristique ?
Le mérite de la neurocybernétique est cependant d’avoir ramené le « modèle technologique » du corps, issue de la philosophie aristotélicienne, au premier plan : « Les rapports évidents, dit Henri Atlan, - similitudes et différences – entre le fonctionnement des ordinateurs et celui du cerveau sont à l’origine des applications de la théorie des automates à la neurophysiologie, ainsi d’ailleurs que le mouvement inverse d’application des données de la neurophysiologie à la théorie des automates31 ». Il s’agit d’un modèle réducteur, mais « le grand apport de Mc Culloch et Pitts réside en ce qu’ils ont pu montrer que leur réseau neuronal, malgré la relative étroitesse de sa définition, était doué de propriétés tout à fait remarquables, en relation avec le fonctionnement des ordinateurs et de façon plus générale, de ce qu’on appelle des automates32 »
Avec ce modèle, une simplification est établie grâce à l’analogie de fonctionnement logique entre le système nerveux et l’automate-ordinateur : les deux sont considérés comme des « boites noires » dont les relations entre entrées, états et sorties obéissent aux règles de la logique booléenne. De ce fait, on peut démontrer que tout réseau neuronal est un automate fini et, réciproquement, que tout automate fini peut être reproduit par un réseau neuronal. Pour le britannique William Ashby, neurologue et cybernéticien, « L’ordinateur est un cadeau du ciel car il permet de jeter un pont entre l’énorme gouffre conceptuel qui sépare le simple et compréhensible du complexe et intéressant33 ». L’ordinateur est un modèle d’analyse et de rationalité pour penser le système nerveux et le cerveau, comme l’a bien souligné Georges Canguilhem, « On peut au choix parler de l’ordinateur comme d’un cerveau ou du cerveau comme d’un ordinateur34 ». Cette image a noué le lien fort entre science et idéologie, entre rationalité informatique et métaphysique cybernétique.
L’informatisation a fait émerger deux êtres nouveaux : d’une part, le « cerveau d’œuvre » (comme on dit « main d’œuvre »), nouvelle forme de l’individualité résultant de la symbiose35 de la personne physique et de l’ordinateur et dotée de capacités auparavant inconnues, et d’autre part, l’« entreprise numérique », nouvelle forme de l’organisation résultant de la synergie des cerveaux d’œuvre dans la personne morale, et qui se concrétise dans un système d’information devenu le nouveau système de production.
L’informatisation fait ainsi apparaître une pratique de l’abstraction, une abstraction à finalité pratique qui définit la grille conceptuelle selon laquelle le système d’information représente le monde réel, et articule ainsi le monde de la pensée aux exigences de l’action conformément aux principes de la philosophie pragmatique de Peirce et de James.
Si le langage de la cybernétique s’est imposé dans l’inconscient collectif, ces trois émergences de l’informatisation – symbiose, synergie, pratique de l’abstraction – bousculent des façons de concevoir les êtres et le monde héritées d’une longue histoire et fermement installées dans les consciences. Il n’est pas surprenant qu’elles rencontrent des résistances dans l’intellect des individus comme dans l’organisation des institutions. C’est le lot des « ruptures » scientifiques et des « coupures épistémologiques ».
____
1 Bertrand Gille, Histoire des techniques, Paris. Gallimard, coll. « La Pléiade », 1978.
2 Jean-Pierre Dupuy, Aux origines des sciences cognitives. Paris, La Découverte, 1994, p.46.
3 « Idéologie est un concept épistémologique à fonction polémique, appliqué à des systèmes de représentation » dit Georges Canguilhem, « Qu'est-ce qu'une idéologie scientifique ? » in Idéologie et rationalité dans l’histoire des sciences de la vie. Paris, Librairie philosophique Jean Vrin, 1981, p.35.
4 Ibid. respectivement, pp. 39 et 43-44.
5 G. Canguilhem, o.c., p. 44.
6 Wilhelm Schickard, lettre à Képler du 20 septembre 1623.
7 Alan Turing, « On Computable Numbers, with an Application to the Entscheidungsproblem », Proceedings of the London Mathematical Society, série 2, vol. 45, 1936.
8 Alan Turing, « Computing machinery and intelligence », Mind, 1950.
9 Alan Turing, « Solvable and Unsolvable Problems », Science News, 1954.
10 John von Neumann, First Draft of a Report on the EDVAC, Moore School of Electrical Engineering, University of Pennsylvania, 30 juin 1945.
11 John von Neumann, The Computer and the Brain, New Haven, Yale University press, 1958.
12 Harold Abelson et Gerald Jay Sussman, Structure and Interpretation of Computer Programs, MIT Press, 2001, p. 22.
13 La « théorie de l’information » de Simondon diffère de celle de Claude Shannon, qui ne considère que les conditions de la transmission exacte d’un message et selon laquelle « the meaning doesn’t matter ». « L'information n'est pas une chose, mais l'opération d'une chose arrivant dans un système et y produisant une transformation. L'information ne peut pas se définir en dehors de cet acte d'incidence transformatrice et de l'opération de réception » (Gilbert Simondon, Communication et information, Éditions de la transparence, 2010, p. 159).
14 Louis Rougier « La révolution cybernétique », conférence du 24 février 1954, Nice, Annales du Centre Universitaire Méditerranéen, vol 7. 1953-1954.
15 A. Moles et R. Claude Méthodologie. Vers une science de l’’action. Paris. Gauthier-Villars, 1964.
16 Arturo Ronsenblueth, Norbert Wiener, Julian Bigelow, Philosophy of Science, vol. 10. Issue 1 (janv. 1943), pp 18-24. Voir Philippe Breton, L’utopie de la communication. Paris, La Découverte, 1992.
17 N. Wiener, Cybernetics, or Control and Communication in the Animal and the Machine (1948) publié, en anglais, par la Librairie Hermann & Cie (Paris), The MIT Press (Cambridge, Mass.) et Wiley (New York). Nos citations renvoient à l’édition française de Cybernétique et société. L’usage humain des êtres humains, Paris. Collection 10/18. 1962, pp 15, 16, 18 et 20-21.
18 Titre de l’article de L. Rougier déjà cité.
19 James Burnham, The managerial revolution. What’s happening in the world. New York, John Day Company, 1941, traduit en français en 1947 sous le titre L'Ère des organisateurs.
20 Lors de ces conférences la discussion était foisonnante, divers points de vue s’affrontant de façon trop implicite (Steve Heims, The Cybernetics Group, MIT Press 1991).
21 Warren S. McCulloch, « The Brain as a Computing Machine », in Electrical Engineering, June 1949, LXVIII, pp. 492‑497.
22 John McCarthy, « Review of The Question of Artificial Intelligence » in Defending AI Research: ACollection of Essays and Reviews, CSLI, 1996
23 Devdatt Dubhashi et Shalom Lappin, « AI Dangers: Imagined and Real », Communications of the ACM, février 2017.
24 Gilbert Simondon, Communication et information. Paris. Les éditions de la transparence, 2010, p. 159.
25 G. Foddis, « Civilisation des machines cybernétiques », in Actes du 2e Congrès international de cybernétique, septembre 1958 à Namur.
26 Paul Dumouchel et Jean-Pierre Dupuy, L’Auto-organisation. De la physique au politique. Colloque de Cerisy, Paris. Le Seuil, 1983, p. 375.
27 Louis Rogier, art. cité, pp. 197-198.
28 Alain Supiot, La gouvernance par les nombres. Cours au Collège de France (2012-2014). Paris, Fayard. 2015
29 Maurice Merleau-Ponty, La Nature. Cours au Collège de France, Paris. Le Seuil, 1995, p. 210.
30 Michel Volle, De l’informatique : savoir vivre avec l’automate, Paris. Economica, 2006.
31 Henri Atlan, L’organisation biologique et la théorie de l’information. Paris. Hermann. Nvelle éd. aug. 1992, p. 115.
32 Idem, p. 131.
33 Ashby W.R., Principles of the self organizing system. Pergamon Press. 1962.
34 Georges Canguilhem, « Le cerveau et la pensée », in Georges Canguilhem, historien des sciences. Bibliothèque du Collège International de Philosophie. Paris. Albin Michel. 1993, p.19.
35 « The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today » (Joseph Licklider, « Man Computer Symbiosis », IRE Transactions on Human Factors in Electronics, mars 1960).
Merci pour le partage de ce texte.
RépondreSupprimerDeux remarques de détail :
"Un automate est une machine qui accomplit exactement, et dans l’ordre, les opérations pour lesquelles elle a été conçue."
C'est exact au niveau macroscopique de l'utilisateur, du programmeur, mais pas nécessairement à celui microscopique du (micro)processeur.
Cf. https://en.wikipedia.org/wiki/Out-of-order_execution
"Leur but commun est de repenser le monde ainsi que tous phénomènes naturels, artificiels ou humains, en termes de communication et d’information."
J'aurais écrit "tous phénomènes naturels (humains et non-humains) et artificiels". Car pourquoi extraire l'Homme de la nature ?
Merci, ex-informaticien et toujours technophile, j'ai bien apprécié votre article, très fouillé et instructif.
RépondreSupprimer