samedi 9 mai 2015

Organiser la relève des dirigeants

« Je découvre le monde des dirigeants, me dit un ami consultant. Ils ne pensent qu'à se battre entre eux pour conquérir et conserver le pouvoir, il n'y a que ça qui les intéresse ».

« Pour qu'une entreprise réussisse son informatisation ou, comme on dit, sa transformation numérique, cela dépend essentiellement de son dirigeant, or les dirigeants n'y comprennent rien », dit un autre.

« La créativité ne se rencontre que dans les startups, les PME, les grandes entreprises sont toutes des cas désespérés, dans vingt ans la plupart d'entre elles n'existeront plus », dit un troisième.

J'éprouve, comme tout le monde, de la sympathie pour les startups, PME et autres ETI en croissance, mais n'a-t-on pas tort de renoncer à l'amélioration des grandes entreprises ? Certes, ce sont des cas difficiles : elles sont emmaillotées dans leur histoire, leurs traditions, il leur est difficile de redéfinir leur mission, de remodeler leur organisation. Mais envisageons-nous vraiment de laisser sombrer Total, Carrefour, Axa, PSA, EDF, Orange etc., avec tous les dégâts qui en résulteront ? N'y a-t-il donc rien à faire pour les sauver ?

Le classement habituel des entreprises selon le chiffre d'affaires ou le nombre de salariés ne rend d'ailleurs pas un compte exact de leur complexité. Une entreprise de « matière grise » qui emploie 200 personnes est classée parmi les PME alors que la complexité qu'elle présente à son dirigeant équivaut à celle d'une entreprise de main d’œuvre qui emploie au moins 10 000 personne : son dirigeant possède une expérience, une intuition, dont une grande entreprise pourrait bénéficier.

La machine à décerveler

Je me suis trouvé en conflit avec un universitaire lors d'un dîner à Paris, cela m'a rappelé quelques souvenirs.

J'avais proposé le petit modèle que je me suis forgé à propos de la créativité. Pendant que je parlais, ce Monsieur semblait bouillir et fumer comme une cocotte-minute sous pression.

- Je ne suis pas du tout d'accord avec vous, s'exclama-t-il enfin. Je viens d'écrire un article sur la créativité, pensez si je connais le sujet. D'ailleurs, quelles sont vos sources ?

- Mon expérience, répondis-je naïvement.

L'expérience personnelle comporte bien sûr les lectures. J'aurais pu citer à l'appui de ce petit modèle Poincaré, Bachelard et quelques autres, mais étaler de la culture me semble répugnant.

Il haussa les épaules avec un sourire dédaigneux et, par la suite, ponctua par des gloussements tout ce que je pouvais dire : en évoquant une expérience personnelle, j'avais montré que je n'étais pas digne de sa conversation.

Il était donc de ceux qui estiment qu'il faut toujours appuyer son propos par l'autorité des Auteurs, sans laquelle rien ne vaut, et qui n'accordent pas le droit à la parole et à l'écoute à quelqu'un qui prétend penser en tirant les leçons de son expérience. « Casse-toi, tu pues, t'es pas d'la bande ».

mercredi 22 avril 2015

Pour une économie plus complète (suite)

(Ce texte prolonge la réflexion amorcée dans un autre texte).

*     *

Le modèle qui sert de référence centrale à la science économique se focalise sur la relation entre la production et la consommation, entre la « fonction de production » des entreprises et la « fonction d'utilité » des consommateurs. L'optimum de Pareto est atteint lorsque les prix relatifs, qui déterminent la production et les échanges, sont tels qu'il serait impossible d'accroître le bien-être d'un consommateur sans diminuer celui d'un autre consommateur. La monnaie est « transparente » car seuls importent les prix relatifs des produits, et non leur transcription selon une unité de compte.

Les agents économiques sont censés dans ce modèle posséder une connaissance parfaite des paramètres de l'économie que sont les ressources naturelles, les techniques disponibles, ainsi que les caractéristiques et le prix des produits (le modèle fait donc abstraction des asymétries d'information). On peut introduire le futur en marquant ces paramètres d'un indice t et en les supposant encore parfaitement connus : cela permet de modéliser l'épargne et l'investissement.

Ce modèle semble ainsi avoir réponse à tout mais ce n'est pas le cas car il ne tient pas compte l'incertitude du futur. Or si l'on peut à la rigueur admettre que la connaissance des paramètres soit parfaite dans une économie instantanée, cette hypothèse n'est pas tenable pour les paramètres futurs : les agents économiques peuvent les anticiper, mais non les connaître. Leurs anticipations sont entourées d'une incertitude dont ils sont plus ou moins conscients, en outre elles diffèrent d'un agent à l'autre. Si l'état présent des paramètres est une référence unique que l'on peut supposer parfaitement connue, il n'en est pas de même pour son état futur car rien ne permet de croire que les anticipations des divers agents soient identiques.

L'extension dynamique du modèle de référence par le simple ajout d'un indice t aux paramètres de l'économie ignore donc une caractéristique essentielle du futur. On peut élaborer un modèle économique plus complet en la prenant en considération.

lundi 20 avril 2015

Werner Heisenberg, La partie et le tout, Flammarion, 2010

L'essentiel de ce livre est consacré à la reconstitution de conversations entre Heisenberg et ses collègues physiciens. Étant écrite, cette reconstitution n'a pas le naturel du langage parlé et il se peut que les idées attribuées aux interlocuteurs soient plus cohérentes, plus construites qu'elles ne l'étaient sur le moment.

Il fallait mentionner cette réserve mais au fond elle a peu d'importance car l'on perçoit fort bien, à travers l'artifice de la conversation reconstituée, le caractère et le point de vue de chacune de ces personnes ainsi que les difficultés qu'elles ont rencontrées dans la mise au point de la physique nucléaire.

Heisenberg désigne par leur prénom celles dont il a été le plus proche : Niels Bohr, Carl Friedrich von Weizsäcker et Wolfgang Pauli. Bohr est extrêmement sympathique : plus âgé que les autres, il est bienveillant envers eux, modeste et profond. Weizsäcker est plus préoccupé par la philosophie que par la physique, Pauli est intraitable et possède un tempérament de feu. Un autre ami talentueux de Heisenberg, le jeune Hans Euler, désespéré par le nazisme, entre dans la Luftwaffe pour y chercher et trouver la mort.

Tous ont eu conscience d'être sur le front de taille de la science, sur la frontière qui sépare le connu de l'inconnu. Les paradoxes apparents de la mécanique quantique les amènent à s'interroger : qu'est-ce que comprendre ? quel est le rapport entre la théorie et la pensée ? qu'est-ce que l'observation d'un phénomène ? quelle est la fonction du langage ? Ils construisent leur théorie par tâtonnement, en proposant des formalismes imparfaits qu'ils soumettent à la critique et perfectionnent progressivement.

Tous sont sérieux et passionnés, conscients d'ouvrir un nouveau champ de connaissance : les propriétés des atomes et des molécules recevant une explication, la chimie cesse d'être un catalogue de recettes pour devenir elle aussi une science hypothético-déductive.

Mis à part Bohr, qui est danois, ce sont des Allemands qui appartiennent à la belle Allemagne cultivée que le nazisme a tenté de détruire. La personne de Hitler leur répugne et ils détestent les nazis qui ont chassé de l'Université d'excellents scientifiques juifs. Ils doivent d'ailleurs se défendre contre les partisans d'une prétendue « science allemande » qui reprochent à la théorie de la relativité et la mécanique quantique d'être des « sciences juives ».

J'ai lu attentivement les passages où Heisenberg dit avoir été opposé au nazisme. On peut certes le soupçonner de réécrire son passé tout comme nous autres Français réécrivons le nôtre : beaucoup de gens ont oublié après la Libération l'admiration qu'ils avaient éprouvée pour Pétain...

lundi 13 avril 2015

Enjeux du langage

Musset a dit qu'une porte doit être ouverte ou fermée, et en effet l'un exclut l'autre. Mais un chemin peut à la fois monter ou descendre, cela dépend du sens de la marche, tout le monde sait cela. On entend cependant parfois des phrases équivalentes à « un chemin ne peut pas à la fois monter et descendre, c'est l'un ou l'autre », car le langage nous confronte à des paradoxes dès que nous sortons du champ de l'expérience habituelle.

On rencontre ainsi souvent, dans les réunions consacrées aux systèmes d'information, des concepts fallacieux, des données inexactes qui égarent le raisonnement et désorientent l'action. L'expert en réunion, excellente vidéo, met en scène de façon comique mais fidèle les absurdités qui se disent alors.

Certains poussent l'égalitarisme jusqu'à prétendre que toutes les langues se valent et jugent inutile de se soucier de la qualité du langage. Le fait est pourtant que les mots que nous prononçons ont des effets réels, qu'un vocabulaire impropre engage la pensée et l'action dans des impasses : nous en donnerons des exemples. Pour pouvoir agir de façon judicieuse dans un monde qui évolue, il nous faut une langue aussi exacte que ne l'était celle de Condillac, aussi bien affûtée que des instruments de chirurgie.

Que deviendrait d'ailleurs notre langue si nous ne résistions pas aux injonctions du politiquement correct, au jargon des administrations et des médias, au parler « populaire » factice qu'affectent ceux qui craignent de passer pour des bourgeois (voir le « Petit dictionnaire Correct-Français et Français-Correct ») ?

samedi 21 mars 2015

La tentation du suicide collectif

Les deux premières révolutions industrielles (1775, 1875) ont été suivies, quelques décennies plus tard, par des guerres dévastatrices (celles de la Révolution et de l'Empire, celles de 1914-18 et 1939-45). Il y a là sans doute non une corrélation, mais plutôt une causalité.

Chaque révolution industrielle a en effet bouleversé la société : le rapport avec la nature a été transformé et avec lui la façon dont on travaille, la nature des produits et de ce que l'on consomme. La délimitation des classes sociales a changé : certaines ont disparu, d'autres sont nées, la perspective et les repères offerts au destin individuel se sont déplacés.

Après la première révolution industrielle ce qui restait du régime féodal par exemple a été balayé, la noblesse a perdu ses privilèges, le pouvoir est passé dans les mains de la bourgeoisie. La deuxième a vu émerger la grande entreprise et, avec elle, la classe des ingénieurs et des administrateurs ainsi que l'ascenseur social par les études tandis que l'aristocratie perdait le dernier reste de son prestige : Proust a mis cela en scène dans Le temps retrouvé.

Pendant de tels événements les repères anciens sont perdus mais les repères nouveaux ne sont pas encore visibles. Beaucoup de personnes sont déboussolées : c'est la cause de l'épidémie de névrose et d'hystérie que Charcot et Freud ont constatées.

Nous avons connu aux alentours de 1975 une troisième révolution industrielle, celle qu'apporte l'informatisation : l'économie et la société s'appuient désormais non plus sur la mécanique, la chimie, le pétrole et l'électricité, mais sur la microélectronique, le logiciel et l'Internet. Les tâches répétitives sont automatisées, la main d’œuvre fait place à un cerveau d’œuvre, des compétences naguère recherchées ne trouvent plus d'emploi, les repères anciens sont effacés alors que les repères nouveaux n'apparaissent pas encore.

vendredi 20 mars 2015

L’État et l'Entreprise

« Consumption is the sole end and purpose of all production; and the interest of the producer ought to be attended to only so far as it may be necessary for promoting that of the consumer » (Adam Smith, The Wealth of Nations, 1776, Livre IV, chapitre 8).

Cette phrase du créateur de la science économique énonce la règle des rapports entre l’État et l'Entreprise. Il s'agit d'un axiome de sa pensée : « the maxim is so perfectly self evident that it would be absurd to attempt to prove it ». Cet axiome n'a cependant pas reçu des lecteurs de Smith autant d'attention que la « main invisible » qu'il évoque dans le chapitre 2 du Livre IV et qui est souvent interprétée, sans tenir compte du contexte et selon un évident contresens, comme une justification de l'égoïsme.

Pour tirer au clair la relation entre l’État et l'Entreprise (ce dernier mot est synonyme de « système productif »), il faut oser simplifier la représentation de ces êtres historiques et organiques en partageant une définition de l'institution. Nous proposons le point de vue suivant : une société crée une institution lorsqu'une mission qu'elle juge nécessaire excède les capacités d'un individu, mais peut être remplie par la coopération de plusieurs individus dans une organisation1.

L’État est une institution, l'Entreprise (E majuscule) en est une autre, chaque entreprise (e minuscule) en est une également. Le système éducatif, le système de santé, le système judiciaire, l'armée, etc. sont des institutions. On trouve d'autres exemples dans l'histoire : les sociétés tribales et féodales ont eu pour institutions respectives la tribu et le fief ; l’Église est une institution, elle a hérité son organisation de l'empire romain ; la famille, le langage que chaque génération hérite de la précédente et transmet à la suivante sont eux aussi des institutions.

L'histoire des institutions connaît des allers et retours : une société tribale peut évoluer vers la féodalité ou vers l'empire, l'empire donne en se décomposant naissance à la féodalité, l’État se construit sur les ruines d'une féodalité, celle-ci peut renaître d'une décomposition de l’État, etc. L'organisation de l’État s'est en Europe calquée sur celle de l’Église et elle a inspiré celle de l'Entreprise.

Cette rapide esquisse est certes discutable mais nous n'étudierons pas ici une histoire dont les ressorts sociologiques et économiques sont des plus complexes. Nous examinerons plutôt la dynamique de l'institution. Elle reçoit son impulsion de dialectiques que la définition de l'institution implique et que l'expérience constate :
  • entre la mission et l'organisation,
  • entre l'individu et l'organisation,
  • entre l'intérieur et l'extérieur de l'institution,
  • entre son orientation stratégique et sa gestion opérationnelle.

vendredi 13 mars 2015

Automatisation et rapports humains

« Plus on automatise, plus le besoin de rapports humains se fait sentir » : j'ai dit cela en parlant du secret de l'iconomie. Une amie m'a fait observer que cette affirmation avait besoin d'être argumentée.

Beaucoup d'entreprises sont tentées d'automatiser la relation avec leurs clients. Lorsque nous les appelons au téléphone, nous tombons sur un automate vocal qui invite à appuyer sur diverses touches pour choisir le service avec lequel nous souhaitons parler. Lorsque nous rencontrons un agent derrière un guichet, un conseiller dans une agence, il arrive que sa relation avec nous soit limitée par ce que « l'ordinateur » lui permet de faire : cet être humain n'est plus à ce moment-là, en face de nous, que le porte-voix d'un automate.

Les entreprises qui agissent de la sorte ne surestiment-elles pas l'efficacité de l'informatique, ne ratent-elles pas quelque chose d'essentiel ?

Certes la relation entre un être humain – en l'occurrence, le client – et un automate permet un certain nombre de choses : nous le voyons lorsque nous consultons un site Web, remplissons un formulaire, etc. Mais la relation entre cet être humain et un autre être humain permet d'autres choses, qui complètent utilement sa relation avec l'automate.

jeudi 5 mars 2015

Le secret de l'iconomie


Je vais vous révéler le secret de l'économie informatisée. Ce secret, vous ne le trouverez ni chez les chantres du « numérique » et du « digital », ni chez un gourou comme Jeremy Rifkin, ni dans le rapport Lemoine. Il se nomme « concurrence monopolistique », expression d'allure paradoxale puisqu'elle conjugue la concurrence et le monopole que l'on a coutume d'opposer comme l'eau et le feu.

La concurrence monopolistique a été explorée dans les années 1930 par Chamberlin et Robinson, elle a intéressé Hotelling, Solow, etc. Les bons économistes la connaissent donc, mais la plupart des praticiens de l'économie l'ignorent. On n'en parle jamais à Bercy ni à Bruxelles, on ne vous en parle jamais : c'est pour ça que je dis que c'est un secret.

samedi 28 février 2015

La force que donne la culture

Tandis que nombre des personnes que la vie nous fait rencontrer semblent fragiles, quelques-unes paraissent invulnérables. Quel est le secret de ces dernières ?

Je qualifie d'invulnérables celles qui, ayant subi la brutalité d'un pervers, la trahison d'un amour, d'un ami, ou encore l'un des coups que le sort inflige, se relèvent bientôt après cet épisode douloureux pour reprendre leur chemin avec autant d'énergie qu'auparavant. Sont fragiles par contre celles qu'un de ces épisodes suffit pour abattre : j'ai vu des politiques, des dirigeants, de bons ingénieurs, transformés en zombies par un événement qu'ils ont été incapables d'assumer.

Le secret des personnes invulnérables réside dans une culture qui les a préparées à la rencontre du Mal en soi ou chez les autres, aux aléas de la santé et de la vie affective, à un changement soudain des conditions d'exercice de leur métier. Leur culture s'est organisée, comme une forteresse de Vauban, selon plusieurs lignes de défense : si l'ennemi enfonce la première, la succession des autres l'empêche de pénétrer jusqu'au cœur de la personne pour la détruire.

Cette culture est organique, incorporée et assimilée à la personne, et sa robustesse la sépare de celle, superficielle, qui sert de signe de distinction à de beaux esprits. La force qu'elle procure réside dans un élargissement de l'expérience et dans la disponibilité de plusieurs sources de plaisir : celui qui prend du plaisir dans la lecture, la musique, la peinture, l'architecture, la cuisine, les sciences, peut y trouver de quoi compenser un chagrin.

mercredi 11 février 2015

Pour une économie plus complète

Plus la production est automatisée, plus le consommateur exige de l'entreprise qu'elle puisse lui faire rencontrer un être humain : c'est là un des principes de l'iconomie.

Cette exigence reste latente tant que l'automate fonctionne bien, mais elle s'éveille dès que le consommateur rencontre un problème qu'il ne sait pas surmonter. Amazon lui offre ainsi une relation par téléphone ou par « chat » avec un être humain capable de comprendre ce qui se passe et de répondre de façon intelligente et chaleureuse.

On observe par ailleurs l'exaspération du client lorsqu'il est confronté - à la Poste, à la SNCF, chez Orange, etc. - à un être humain que l'entreprise contraint à se comporter comme un automate.

Nous allons nous efforcer de tirer cela au clair : les changements que l'informatisation apporte à l'économie et à la société invitent à corriger les lacunes du raisonnement habituel.

jeudi 29 janvier 2015

Schéma économique de l'iconomie

On hésite toujours à partager une intuition, ne serait-ce que par peur du ridicule. C'est pourtant la façon la plus efficace de communiquer. J'ai donc décidé de jeter ma timidité par dessus les moulins et de partager mon intuition de « l'économie de l'iconomie ».

L'iconomie, je le rappelle, c'est la représentation d'une économie et d'une société informatisées parvenues par hypothèse à une efficacité raisonnable. L'économie et la société actuelles sont informatisées mais ne sont pas efficaces puisque le chômage de masse gaspille une grande part de la force productive. L'iconomie est donc un modèle, un schéma, dont le but est de faire apparaître les conditions nécessaires de l'efficacité.

L'informatisation est un phénomène historique dont les dimensions s'empilent comme les couches d'un mille-feuilles : physique et logique de l'informatique, psychologie des êtres humains, sociologie des organisations, démarches de la pensée, mission et valeurs des institutions. Ici nous considérons la seule dimension économique de l'informatisation, elle projette un éclairage sur les autres.

Les économistes construisent des schémas qu'ils nomment « modèles » et qui, comme des caricatures, simplifient la réalité pour en révéler un aspect essentiel. Nous allons suivre leur démarche. Elle comporte trois étapes que l'on peut représenter selon le dessin d'un sablier.


Il s'agit d'abord de constater des faits jugés importants : ce constat sélectif est guidé par le flair de l'économiste.

L'étape suivante consiste à trouver, dans la boîte à outils de la science économique, la synthèse qui permettra de déduire les conséquences des faits constatés : cette synthèse forme le nœud du sablier.

La troisième étape consiste à déployer l'éventail des conséquences de cette synthèse et à les comparer avec la situation réelle. Cette comparaison permet de vérifier que l'observation ne contredit ni la sélection des faits constatés, ni le raisonnement qui a suivi.

Le schéma ainsi obtenu ne décrit pas la situation dans toute sa complexité mais il met de l'ordre dans la réflexion et attire l'attention sur des conséquences auxquelles on n'aurait pas pensé auparavant. C'est ainsi d'ailleurs que fonctionne toujours notre pensée, car toute représentation simplifie le monde réel. Il faut assumer cette simplicité : elle conditionne l'efficacité de l'action.

dimanche 25 janvier 2015

Comprendre l'informatisation

(Article destiné à la revue Cahiers philosophiques, n° 141, mai 2015).

L'informatisation a changé la nature à laquelle les intentions et les actions humaines sont confrontées. Pour en prendre une exacte mesure, l'expérience que fait chacun avec l'Internet et le téléphone « intelligent » ne suffit pas : il importe de percevoir ce qui se passe dans le système productif car la mondialisation et la financiarisation sont, pour le meilleur et pour le pire, des conséquences de l'informatisation. Elle a transformé la nature des produits, la façon de les produire, la définition des compétences et des emplois, la forme de la concurrence, l'équilibre du marché, la relation entre les nations tout comme la perspective qui s'offre au destin des individus. 

Comme les autres révolutions industrielles, celle-ci provoque d'abord naturellement le désarroi. Les habitudes et comportements jadis raisonnables se trouvant inadéquats, les institutions tâtonnent à la recherche de nouvelles règles. 

L'économie informatisée, automatisée, requiert d'ailleurs des investissements importants : elle est donc ultra-capitalistique et cela implique des risques élevés. Il en résulte qu'elle est tentée par la violence, par une prédation à laquelle l'informatique offre des instruments aussi puissants que commodes. C'est là le principal danger qui guette notre société.

*     *

Certains des phénomènes que l'informatique provoque sont évidents pour tous, d'autres sont moins visibles et ce sont les plus importants. Ce qui est évident, c'est ce que chacun expérimente lorsqu'il utilise un téléphone « intelligent » ou se trouve à son domicile devant l'écran-clavier d'un ordinateur connecté à l'Internet : ce sont autant d'interfaces vers une ressource informatique composée de processeurs, programmes et documents accessibles depuis partout grâce à l'Internet. Elle constitue un gigantesque automate programmable ubiquitaire1 dont la mise à disposition se concrétise par la messagerie, le Web, les réseaux sociaux, etc. et le déploiement d'usages qui ont des conséquences psychologiques, cognitives, sociologiques, culturelles, etc.

Ces phénomènes invitent à la réflexion : n'existe-t-il pas par exemple un rapport entre l'ubiquité de la ressource informatique et la globalisation de l'économie ? Pour répondre à une telle question il faut quitter la sphère de l'usage personnel et examiner ce qui se passe dans le système productif. La réflexion sur les usages reste d'ailleurs partielle si elle se limite aux conséquences de l'informatisation sans voir ce qui les a rendus possibles : pour être complet le raisonnement doit considérer, en même temps que les usages, leur cause matérielle. Derrière la messagerie, le Web, les réseaux sociaux, se trouvent des institutions qui légifèrent, régulent et normalisent, des entreprises qui construisent et programment des plates-formes informatiques et s'appuient, pour rentabiliser leur investissement, sur des modèles d'affaire (business model) d'un nouveau type.

dimanche 11 janvier 2015

Dominer l'émotion

Nous avons tous été émus par les événements de cette semaine. Il faut cependant dominer cette émotion car elle donne de mauvais conseils. Il ne convient pas de parler de « guerre » quand on a affaire à des assassins : les combattre est la mission de la police et non celle de l'armée. Il ne faut jamais dire que l'on a peur car cela réjouit les terroristes dont le but est précisément de terroriser. Il ne faut d'ailleurs pas avoir peur : certes ils sont odieux, mais ils ne pourront jamais nous tuer autant que ne le font notre laisser-aller dans la consommation d'alcool, de tabac, et notre chère automobile...

Ceux qui, à tort ou à raison, estiment que la société les ignore croient ne pouvoir exister que si l'on parle d'eux dans les médias. Par ailleurs notre culture confond souvent l'énergie avec la violence et accorde à celle-ci une prime de prestige : ne voyons-nous pas des dirigeants proclamer « je suis un tueur » et se comporter en brutes, comme cela s'est passé à France Télécom, comme cela se passe encore dans d'autres grandes entreprises ?

Alors tenir une arme dans ses mains, menacer et tuer des personnes sans défense donne au plus pauvre des imbéciles une illusion de puissance. Il est mal venu de parler du « professionnalisme » des tueurs, de leur « froide efficacité », de leur « savoir-faire » : de telles expressions sont pour ces esprits faibles autant de compliments délicieux. Accumuler des mesures sécuritaires qui bloquent l'économie et entravent la circulation, stigmatiser les Français dont la religion est l'islam, ce serait leur donner la victoire. Relativiser la menace n'empêche pas de les combattre mais permet de « raison garder ».

Cela n'interdit pas de travailler, réfléchir, comprendre. L'islamisme, dit Abdelwahab Meddeb, est la maladie de l'islam et cette maladie est épidémique. Quelle est son origine ? Comment se répand l'épidémie ? Comment la stopper ?

jeudi 1 janvier 2015

A propos de l'« intelligence de l'ordinateur »

L'« intelligence de l'ordinateur » fascine certains, elle fait peur à d'autres. Selon Stephen Hawking, « The development of full artificial intelligence could spell the end of the human race : humans, who are limited by slow biological evolution, couldn't compete and would be superseded1 ». Erik Brynjolfsson et Andrew McAfee disent que « our skills and institutions will have to work harder and harder to keep up lest more and more of the labor force faces technological unemployment2 ».

Ces auteurs craignent que l'« intelligence artificielle » ne supplante l'intelligence humaine et que l'automatisation ne supprime l'emploi des êtres humains. Cette perspective réjouit d'autres personnes : elles disent qu'il vaut mieux s'en remettre à l'ordinateur parce qu'elles estiment que l'être humain n'est pas fiable. Si toute la production est automatisée, disent-elles d'ailleurs, ce sera tant mieux car l'humanité pourra consacrer son temps aux loisirs3.

L'« ordinateur intelligent », c'est une « chose qui pense ». Ne s'agit-il pas d'une de ces chimères que le langage peut créer (il est facile d'accoler des mots), mais qui ne désignent rien qui puisse exister ? Je soutiens donc une tout autre thèse : le cerveau humain est le lieu exclusif de l'intelligence créative et si le chômage de masse semble une fatalité, c'est parce que notre société n'a pas encore assimilé l'informatisation.

Nous tirerons cela au clair en comparant l'informatique à la mécanique et à l'écriture. Cela nous fournira des analogies et des différences qui feront apparaître les impasses dans lesquelles l'informatisation risque de nous égarer si nous n'y prenons pas garde.

mardi 30 décembre 2014

Conférence à X-Mines Consult

L'institut de l'iconomie a donné le 26 novembre 2014 une conférence sur la "révolution digitale" devant l'association X-Mines Consult.

Voici le lien vers la vidéo : http://www.iconomie.org/conference-xmc-la-revolution-digitale/.

samedi 27 décembre 2014

Que dire : « numérique », « digital », « informatique » ?

La conversation entre Vincent Lorphelin et Stanislas de Bentzmann qu'a diffusée récemment Xerfi Canal m'a éclairé sur la portée du mot « numérique ».

Le « numérique », dit M. de Bentzmann, c'est « la transformation des usages, des processus. On sort de l'entreprise pour entrer chez les clients, les partenaires, les collaborateurs. La technique ouvre des portes dont les consommateurs et les salariés se saisissent ».

Pris à la lettre « numérique » désigne le codage des documents (son, texte, image, vidéo, programme, etc.) avec des zéros et des uns, qui associe à chaque document un (très grand) nombre entier noté en binaire : pour le codage du son, par exemple, voir transmission analogique et transmission numérique. L'anglicisme « digital », qui remplace « nombre » par « chiffre », ne signifie rien de plus.

Mais puisque l'usage attribue désormais à « numérique » le sens que lui donne M. de Bentzmann, acceptons le et voyons ce que nous pouvons en faire. Il s'agit « des nouveaux usages, des nouvelles façons de travailler et de consommer, des nouveaux modèles d'affaire, des nouvelles formes de concurrence », que l'informatique a rendus possibles. Le « numérique », c'est donc l'ensemble des conséquences de l'informatisation. L'informatique est sa cause matérielle.

Ce point de vue est légitime : l'informatisation ayant ouvert des possibles qui offrent à l'action un nouveau continent, il s'agit d'acquérir les savoir-faire et savoir-vivre qui permettront d'en tirer parti. Tout le monde est invité à participer à cette aventure : les consommateurs, les salariés, les informaticiens, les stratèges des entreprises et de la politique. Le continent que l'on envisage ainsi est celui qui est ouvert aujourd'hui par les techniques disponibles, et auxquelles il s'agit de s'adapter au mieux.

S'il s'agit cependant de penser non seulement la situation actuelle, mais l'évolution qui nous y a conduits et, en la prolongeant, la perspective du futur que l'on nomme « prospective », alors on ne peut plus supposer que les « technologies » auquel il convient de s'adapter soient stables ni même définies avec précision : elles ont évolué et elles évolueront encore, selon une dynamique qui les entrelace avec leurs usages, et pour pouvoir penser cette dynamique il faut examiner l'histoire des techniques – celle par exemple des langages de programmation, du traitement de texte, du tableur, de l'Internet, etc. : voir comment ils ont été inventés, perfectionnés, rodés au contact de leurs utilisateurs, connaître les échecs et les succès des pionniers, les résistances que les innovations ont rencontrées, et comment ces résistances ont fini par céder. Cela permet de sortir de l'illusion, si répandue, qui fait croire que ce qui existe aujourd'hui a toujours existé et perdurera à l'identique.

La technique et l'usage obéissent à deux logiques différentes. L'usage se déploie dans l'espace du possible, tel que la technique l'offre hic et nunc. Cet espace est donc la condition nécessaire de son existence - et non la condition suffisante, car la technique ne détermine pas l'usage dans tous ses détails et d'ailleurs il se peut que des usages possibles ne voient pas le jour. Réciproquement, l'évolution de la technique est orientée par une anticipation de l'usage (voir Steven Levy, Hackers, et Michael Hiltzik, Dealers of Lightning) : la technique se développe à la rencontre entre les besoins anticipés, la nature physique qui offre ses matériaux, et la logique. Ajoutons que les usages se développent à partir des usages antérieurs, qu'ils transforment, et qu'il en est de même de la technique.

Confronté à une telle dynamique le raisonnement doit embrasser les dialectiques de l'invention et de l'innovation, de la technique et des usages, du possible et du pratique, de la cause matérielle et de ses conséquences : il acquiert ainsi l'intuition nécessaire pour se représenter le futur dans ses grandes lignes, s'orienter en conséquence, définir une stratégie et une politique.

Alors que « numérique » convient, admettons le, pour désigner l'adaptation à la situation technique actuelle, tâche déjà passablement compliquée, le mot qui convient pour désigner cette dynamique est « informatisation ». Il connote en effet tout à la fois l'évolution du possible technique et celle du couple que forment l'être humain et l'automate programmable, tel qu'il s'organise dans les institutions et la vie personnelle de chacun.

Je comprends pourquoi « numérique » m'a longtemps été antipathique. Je ne peux en effet comprendre la situation actuelle que si je la situe dans une histoire et la prolonge vers un futur : le mot « informatisation » m'est donc nécessaire. Mais j'admets que « numérique » puisse convenir à ceux dont la priorité est l'adaptation des comportements aux possibilités qui existent hic et nunc, tâche évidemment utile.

Raymond Aron, Le marxisme de Marx, de Fallois, 2002

J'ai connu un penseur : mon père. Sa pensée était à la fois ferme et souple. Il n'était certes pas commode mais il soumettait instantanément ses idées au joug de l'expérience ou à la contrainte d'une démonstration. Cette expérience me permet de reconnaître un penseur, que ce soit par la lecture ou en face à face, et de le distinguer de la foule des farceurs. Raymond Aron et Karl Marx sont des penseurs, ce livre décrit leur rencontre.

Aron a étudié Marx avec passion. Il n'était pas marxiste mais il avait reconnu chez Marx une orientation proche de la sienne : considérer la société comme un être vivant que l'on situe dans son histoire et dont on s'efforce d'élucider la dynamique. Marx était ainsi pour lui un de ces rares interlocuteurs avec lesquels la conversation est véritablement utile.

Bien des choses le contrariaient cependant : la brutalité du polémiste, l'enfermement de l'économiste dans la valeur-travail de Ricardo, l'ambiguïté d'une pensée qui, étant inachevée, se prêtera plus tard à des détournements et en particulier à celui, outrageusement mécaniste, commis par Lénine, Trotsky et Staline. Si Aron a admiré le génie du penseur, il a déploré ce que ses prétendus héritiers ont fait de sa pensée.

mardi 23 décembre 2014

Les études économiques en support des nouveaux services

(Texte de la conférence du 10 avril 2014, publié dans le n° 19 des cahiers de l'Association pour l'Histoire des Télécommunications et de l'Informatique).

J'arrive au CNET1 en 1983 à l'invitation de François du Castel pour y monter une « mission d'études économiques ». Cette mission devait éclairer la perspective de la diversification des services sur les réseaux télécoms en coopération avec l'équipe de Patrice Flichy qui, elle, menait des recherches sur la sociologie des usages.

Le service téléphonique avait en effet pratiquement atteint sa pénétration finale après l'effort d'équipement lancé à partir de 1974. L'énergie acquise par la DGT dans cette période de vive croissance se cherchait de nouveaux débouchés : ce sera le Minitel, puis le Plan Câble.

Je venais de l'INSEE et ne connaissais rien aux télécoms. Il a donc fallu que je me mette à l'école comme un bizut en lisant des livres, en écoutant les chercheurs du CNET et surtout les explications que me donnait généreusement du Castel.

J'ai eu bien du mal à comprendre la diversité des télécoms : le codage numérique du signal vocal, le modèle en couches, les règles d'ingénierie et la hiérarchie des commutateurs du réseau général, l'architecture de Transpac, le protocole Ethernet sur les réseaux locaux d'établissement, etc. Il faudra je fasse un cours sur les techniques des télécoms à l'ENSPTT pour assimiler enfin leur vocabulaire, leurs principes et leurs méthodes. Je suis étonné quand je vois un inspecteur des finances accepter de prendre la présidence du gigantesque automate qu'est le réseau télécom sans éprouver apparemment la moindre inquiétude...

mercredi 10 décembre 2014

Lassitude

« Il nous faudrait un projet », vous dit-on. Vous en proposez un. « Il nous faudrait un projet », vous dit-on encore. Votre proposition n'a pas été entendue. On ne vous dit pas que ce projet n'est pas le bon, ni qu'il faudrait l'améliorer, car on n'y entre pas : on l'ignore. Vous souhaiteriez une discussion, on vous la refuse.

Vous dites « il faut s'orienter vers l'iconomie ». On vous répond « qu'est-ce que l'iconomie ? ». Vous énoncez une définition, la même personne demande encore « qu'est-ce que l'iconomie ? ». Vous répétez la définition, et de nouveau : « qu'est-ce que l'iconomie? », etc.

Après avoir dit « il nous faudrait un projet », on ajoute « nous n'avons pas besoin d'une théorie : ce qu'il faut, c'est avancer à petits pas dans la bonne direction ». Mais comment trouver « la bonne direction » si l'on n'a pas examiné la situation et tiré au clair des relations de cause à effet – ce qui, qu'on le veuille ou non, constitue une théorie ?

Ces personnes qui vous interrogent voudraient bien avoir un projet, une orientation, mais pas au point de faire l'effort d'entendre, de lire, de réfléchir, pas au point de faire l'effort de penser. La situation n'est apparemment pas encore assez dramatique.

Il ne faut pas croire qu'une démonstration puisse convaincre, qu'une définition puisse se partager : cela n'est vrai que pendant les cours de maths, et encore. Dans la vraie vie, seuls les démagogues se font entendre car ils savent, eux, comment il convient de répondre à des interrogations sans objet, des inquiétudes sans sujet, de vagues désirs sans urgence.

Tout cela me rappelle un sketch d'Anne Roumanoff : un enfant pose des questions à sa maman et chaque réponse est suivie d'un nouveau « pourquoi ? » jusqu'à ce que Maman, excédée, réponde « Merde ! ».