samedi 28 février 2015

La force que donne la culture

Tandis que nombre des personnes que la vie nous fait rencontrer semblent fragiles, quelques-unes paraissent invulnérables. Quel est le secret de ces dernières ?

Je qualifie d'invulnérables celles qui, ayant subi la brutalité d'un pervers, la trahison d'un amour, d'un ami, ou encore l'un des coups que le sort inflige, se relèvent bientôt après cet épisode douloureux pour reprendre leur chemin avec autant d'énergie qu'auparavant. Sont fragiles par contre celles qu'un de ces épisodes suffit pour abattre : j'ai vu des politiques, des dirigeants, de bons ingénieurs, transformés en zombies par un événement qu'ils ont été incapables d'assumer.

Le secret des personnes invulnérables réside dans une culture qui les a préparées à la rencontre du Mal en soi ou chez les autres, aux aléas de la santé et de la vie affective, à un changement soudain des conditions d'exercice de leur métier. Leur culture s'est organisée, comme une forteresse de Vauban, selon plusieurs lignes de défense : si l'ennemi enfonce la première, la succession des autres l'empêche de pénétrer jusqu'au cœur de la personne pour la détruire.

Cette culture est organique, incorporée et assimilée à la personne, et sa robustesse la sépare de celle, superficielle, qui sert de signe de distinction à de beaux esprits. La force qu'elle procure réside dans un élargissement de l'expérience et dans la disponibilité de plusieurs sources de plaisir : celui qui prend du plaisir dans la lecture, la musique, la peinture, l'architecture, la cuisine, les sciences, peut y trouver de quoi compenser un chagrin.

mercredi 11 février 2015

Pour une économie plus complète

Plus la production est automatisée, plus le consommateur exige de l'entreprise qu'elle puisse lui faire rencontrer un être humain : c'est là un des principes de l'iconomie.

Cette exigence reste latente tant que l'automate fonctionne bien, mais elle s'éveille dès que le consommateur rencontre un problème qu'il ne sait pas surmonter. Amazon lui offre ainsi une relation par téléphone ou par « chat » avec un être humain capable de comprendre ce qui se passe et de répondre de façon intelligente et chaleureuse.

On observe par ailleurs l'exaspération du client lorsqu'il est confronté - à la Poste, à la SNCF, chez Orange, etc. - à un être humain que l'entreprise contraint à se comporter comme un automate.

Nous allons nous efforcer de tirer cela au clair : les changements que l'informatisation apporte à l'économie et à la société invitent à corriger les lacunes du raisonnement habituel.

jeudi 29 janvier 2015

Schéma économique de l'iconomie

On hésite toujours à partager une intuition, ne serait-ce que par peur du ridicule. C'est pourtant la façon la plus efficace de communiquer. J'ai donc décidé de jeter ma timidité par dessus les moulins et de partager mon intuition de « l'économie de l'iconomie ».

L'iconomie, je le rappelle, c'est la représentation d'une économie et d'une société informatisées parvenues par hypothèse à une efficacité raisonnable. L'économie et la société actuelles sont informatisées mais ne sont pas efficaces puisque le chômage de masse gaspille une grande part de la force productive. L'iconomie est donc un modèle, un schéma, dont le but est de faire apparaître les conditions nécessaires de l'efficacité.

L'informatisation est un phénomène historique dont les dimensions s'empilent comme les couches d'un mille-feuilles : physique et logique de l'informatique, psychologie des êtres humains, sociologie des organisations, démarches de la pensée, mission et valeurs des institutions. Ici nous considérons la seule dimension économique de l'informatisation, elle projette un éclairage sur les autres.

Les économistes construisent des schémas qu'ils nomment « modèles » et qui, comme des caricatures, simplifient la réalité pour en révéler un aspect essentiel. Nous allons suivre leur démarche. Elle comporte trois étapes que l'on peut représenter selon le dessin d'un sablier.


Il s'agit d'abord de constater des faits jugés importants : ce constat sélectif est guidé par le flair de l'économiste.

L'étape suivante consiste à trouver, dans la boîte à outils de la science économique, la synthèse qui permettra de déduire les conséquences des faits constatés : cette synthèse forme le nœud du sablier.

La troisième étape consiste à déployer l'éventail des conséquences de cette synthèse et à les comparer avec la situation réelle. Cette comparaison permet de vérifier que l'observation ne contredit ni la sélection des faits constatés, ni le raisonnement qui a suivi.

Le schéma ainsi obtenu ne décrit pas la situation dans toute sa complexité mais il met de l'ordre dans la réflexion et attire l'attention sur des conséquences auxquelles on n'aurait pas pensé auparavant. C'est ainsi d'ailleurs que fonctionne toujours notre pensée, car toute représentation simplifie le monde réel. Il faut assumer cette simplicité : elle conditionne l'efficacité de l'action.

dimanche 25 janvier 2015

Comprendre l'informatisation

(Article destiné aux Cahiers philosophiques).

L'informatisation a changé la nature à laquelle les intentions et les actions humaines sont confrontées. Pour en prendre une exacte mesure, l'expérience que fait chacun avec l'Internet et le téléphone « intelligent » ne suffit pas : il importe de percevoir ce qui se passe dans le système productif car la mondialisation et la financiarisation sont, pour le meilleur et pour le pire, des conséquences de l'informatisation. Elle a transformé la nature des produits, la façon de les produire, la définition des compétences et des emplois, la forme de la concurrence, l'équilibre du marché, la relation entre les nations tout comme la perspective qui s'offre au destin des individus. 

Comme les autres révolutions industrielles, celle-ci provoque d'abord naturellement le désarroi. Les habitudes et comportements jadis raisonnables se trouvant inadéquats, les institutions tâtonnent à la recherche de nouvelles règles. 

L'économie informatisée, automatisée, requiert d'ailleurs des investissements importants : elle est donc ultra-capitalistique et cela implique des risques élevés. Il en résulte qu'elle est tentée par la violence, par une prédation à laquelle l'informatique offre des instruments aussi puissants que commodes. C'est là le principal danger qui guette notre société.

*     *

Certains des phénomènes que l'informatique provoque sont évidents pour tous, d'autres sont moins visibles et ce sont les plus importants. Ce qui est évident, c'est ce que chacun expérimente lorsqu'il utilise un téléphone « intelligent » ou se trouve à son domicile devant l'écran-clavier d'un ordinateur connecté à l'Internet : ce sont autant d'interfaces vers une ressource informatique composée de processeurs, programmes et documents accessibles depuis partout grâce à l'Internet. Elle constitue un gigantesque automate programmable ubiquitaire1 dont la mise à disposition se concrétise par la messagerie, le Web, les réseaux sociaux, etc. et le déploiement d'usages qui ont des conséquences psychologiques, cognitives, sociologiques, culturelles, etc.

Ces phénomènes invitent à la réflexion : n'existe-t-il pas par exemple un rapport entre l'ubiquité de la ressource informatique et la globalisation de l'économie ? Pour répondre à une telle question il faut quitter la sphère de l'usage personnel et examiner ce qui se passe dans le système productif. La réflexion sur les usages reste d'ailleurs partielle si elle se limite aux conséquences de l'informatisation sans voir ce qui les a rendus possibles : pour être complet le raisonnement doit considérer, en même temps que les usages, leur cause matérielle. Derrière la messagerie, le Web, les réseaux sociaux, se trouvent des institutions qui légifèrent, régulent et normalisent, des entreprises qui construisent et programment des plates-formes informatiques et s'appuient, pour rentabiliser leur investissement, sur des modèles d'affaire (business model) d'un nouveau type.

dimanche 11 janvier 2015

Dominer l'émotion

Nous avons tous été émus par les événements de cette semaine. Il faut cependant dominer cette émotion car elle donne de mauvais conseils. Il ne convient pas de parler de « guerre » quand on a affaire à des assassins : les combattre est la mission de la police et non celle de l'armée. Il ne faut jamais dire que l'on a peur car cela réjouit les terroristes dont le but est précisément de terroriser. Il ne faut d'ailleurs pas avoir peur : certes ils sont odieux, mais ils ne pourront jamais nous tuer autant que ne le font notre laisser-aller dans la consommation d'alcool, de tabac, et notre chère automobile...

Ceux qui, à tort ou à raison, estiment que la société les ignore croient ne pouvoir exister que si l'on parle d'eux dans les médias. Par ailleurs notre culture confond souvent l'énergie avec la violence et accorde à celle-ci une prime de prestige : ne voyons-nous pas des dirigeants proclamer « je suis un tueur » et se comporter en brutes, comme cela s'est passé à France Télécom, comme cela se passe encore dans d'autres grandes entreprises ?

Alors tenir une arme dans ses mains, menacer et tuer des personnes sans défense donne au plus pauvre des imbéciles une illusion de puissance. Il est mal venu de parler du « professionnalisme » des tueurs, de leur « froide efficacité », de leur « savoir-faire » : de telles expressions sont pour ces esprits faibles autant de compliments délicieux. Accumuler des mesures sécuritaires qui bloquent l'économie et entravent la circulation, stigmatiser les Français dont la religion est l'islam, ce serait leur donner la victoire. Relativiser la menace n'empêche pas de les combattre mais permet de « raison garder ».

Cela n'interdit pas de travailler, réfléchir, comprendre. L'islamisme, dit Abdelwahab Meddeb, est la maladie de l'islam et cette maladie est épidémique. Quelle est son origine ? Comment se répand l'épidémie ? Comment la stopper ?

jeudi 1 janvier 2015

A propos de l'« intelligence de l'ordinateur »

L'« intelligence de l'ordinateur » fascine certains, elle fait peur à d'autres. Selon Stephen Hawking, « The development of full artificial intelligence could spell the end of the human race : humans, who are limited by slow biological evolution, couldn't compete and would be superseded1 ». Erik Brynjolfsson et Andrew McAfee disent que « our skills and institutions will have to work harder and harder to keep up lest more and more of the labor force faces technological unemployment2 ».

Ces auteurs craignent que l'« intelligence artificielle » ne supplante l'intelligence humaine et que l'automatisation ne supprime l'emploi des êtres humains. Cette perspective réjouit d'autres personnes : elles disent qu'il vaut mieux s'en remettre à l'ordinateur parce qu'elles estiment que l'être humain n'est pas fiable. Si toute la production est automatisée, disent-elles d'ailleurs, ce sera tant mieux car l'humanité pourra consacrer son temps aux loisirs3.

L'« ordinateur intelligent », c'est une « chose qui pense ». Ne s'agit-il pas d'une de ces chimères que le langage peut créer (il est facile d'accoler des mots), mais qui ne désignent rien qui puisse exister ? Je soutiens donc une tout autre thèse : le cerveau humain est le lieu exclusif de l'intelligence créative et si le chômage de masse semble une fatalité, c'est parce que notre société n'a pas encore assimilé l'informatisation.

Nous tirerons cela au clair en comparant l'informatique à la mécanique et à l'écriture. Cela nous fournira des analogies et des différences qui feront apparaître les impasses dans lesquelles l'informatisation risque de nous égarer si nous n'y prenons pas garde.

mardi 30 décembre 2014

Conférence à X-Mines Consult

L'institut de l'iconomie a donné le 26 novembre 2014 une conférence sur la "révolution digitale" devant l'association X-Mines Consult.

Voici le lien vers la vidéo : http://www.iconomie.org/conference-xmc-la-revolution-digitale/.

samedi 27 décembre 2014

Que dire : « numérique », « digital », « informatique » ?

La conversation entre Vincent Lorphelin et Stanislas de Bentzmann qu'a diffusée récemment Xerfi Canal m'a éclairé sur la portée du mot « numérique ».

Le « numérique », dit M. de Bentzmann, c'est « la transformation des usages, des processus. On sort de l'entreprise pour entrer chez les clients, les partenaires, les collaborateurs. La technique ouvre des portes dont les consommateurs et les salariés se saisissent ».

Pris à la lettre « numérique » désigne le codage des documents (son, texte, image, vidéo, programme, etc.) avec des zéros et des uns, qui associe à chaque document un (très grand) nombre entier noté en binaire : pour le codage du son, par exemple, voir transmission analogique et transmission numérique. L'anglicisme « digital », qui remplace « nombre » par « chiffre », ne signifie rien de plus.

Mais puisque l'usage attribue désormais à « numérique » le sens que lui donne M. de Bentzmann, acceptons le et voyons ce que nous pouvons en faire. Il s'agit « des nouveaux usages, des nouvelles façons de travailler et de consommer, des nouveaux modèles d'affaire, des nouvelles formes de concurrence », que l'informatique a rendus possibles. Le « numérique », c'est donc l'ensemble des conséquences de l'informatisation. L'informatique est sa cause matérielle.

Ce point de vue est légitime : l'informatisation ayant ouvert des possibles qui offrent à l'action un nouveau continent, il s'agit d'acquérir les savoir-faire et savoir-vivre qui permettront d'en tirer parti. Tout le monde est invité à participer à cette aventure : les consommateurs, les salariés, les informaticiens, les stratèges des entreprises et de la politique. Le continent que l'on envisage ainsi est celui qui est ouvert aujourd'hui par les techniques disponibles, et auxquelles il s'agit de s'adapter au mieux.

S'il s'agit cependant de penser non seulement la situation actuelle, mais l'évolution qui nous y a conduits et, en la prolongeant, la perspective du futur que l'on nomme « prospective », alors on ne peut plus supposer que les « technologies » auquel il convient de s'adapter soient stables ni même définies avec précision : elles ont évolué et elles évolueront encore, selon une dynamique qui les entrelace avec leurs usages, et pour pouvoir penser cette dynamique il faut examiner l'histoire des techniques – celle par exemple des langages de programmation, du traitement de texte, du tableur, de l'Internet, etc. : voir comment ils ont été inventés, perfectionnés, rodés au contact de leurs utilisateurs, connaître les échecs et les succès des pionniers, les résistances que les innovations ont rencontrées, et comment ces résistances ont fini par céder. Cela permet de sortir de l'illusion, si répandue, qui fait croire que ce qui existe aujourd'hui a toujours existé et perdurera à l'identique.

La technique et l'usage obéissent à deux logiques différentes. L'usage se déploie dans l'espace du possible, tel que la technique l'offre hic et nunc. Cet espace est donc la condition nécessaire de son existence - et non la condition suffisante, car la technique ne détermine pas l'usage dans tous ses détails et d'ailleurs il se peut que des usages possibles ne voient pas le jour. Réciproquement, l'évolution de la technique est orientée par une anticipation de l'usage (voir Steven Levy, Hackers, et Michael Hiltzik, Dealers of Lightning) : la technique se développe à la rencontre entre les besoins anticipés, la nature physique qui offre ses matériaux, et la logique. Ajoutons que les usages se développent à partir des usages antérieurs, qu'ils transforment, et qu'il en est de même de la technique.

Confronté à une telle dynamique le raisonnement doit embrasser les dialectiques de l'invention et de l'innovation, de la technique et des usages, du possible et du pratique, de la cause matérielle et de ses conséquences : il acquiert ainsi l'intuition nécessaire pour se représenter le futur dans ses grandes lignes, s'orienter en conséquence, définir une stratégie et une politique.

Alors que « numérique » convient, admettons le, pour désigner l'adaptation à la situation technique actuelle, tâche déjà passablement compliquée, le mot qui convient pour désigner cette dynamique est « informatisation ». Il connote en effet tout à la fois l'évolution du possible technique et celle du couple que forment l'être humain et l'automate programmable, tel qu'il s'organise dans les institutions et la vie personnelle de chacun.

Je comprends pourquoi « numérique » m'a longtemps été antipathique. Je ne peux en effet comprendre la situation actuelle que si je la situe dans une histoire et la prolonge vers un futur : le mot « informatisation » m'est donc nécessaire. Mais j'admets que « numérique » puisse convenir à ceux dont la priorité est l'adaptation des comportements aux possibilités qui existent hic et nunc, tâche évidemment utile.

Raymond Aron, Le marxisme de Marx, de Fallois, 2002

J'ai connu un penseur : mon père. Sa pensée était à la fois ferme et souple. Il n'était certes pas commode mais il soumettait instantanément ses idées au joug de l'expérience ou à la contrainte d'une démonstration. Cette expérience me permet de reconnaître un penseur, que ce soit par la lecture ou en face à face, et de le distinguer de la foule des farceurs. Raymond Aron et Karl Marx sont des penseurs, ce livre décrit leur rencontre.

Aron a étudié Marx avec passion. Il n'était pas marxiste mais il avait reconnu chez Marx une orientation proche de la sienne : considérer la société comme un être vivant que l'on situe dans son histoire et dont on s'efforce d'élucider la dynamique. Marx était ainsi pour lui un de ces rares interlocuteurs avec lesquels la conversation est véritablement utile.

Bien des choses le contrariaient cependant : la brutalité du polémiste, l'enfermement de l'économiste dans la valeur-travail de Ricardo, l'ambiguïté d'une pensée qui, étant inachevée, se prêtera plus tard à des détournements et en particulier à celui, outrageusement mécaniste, commis par Lénine, Trotsky et Staline. Si Aron a admiré le génie du penseur, il a déploré ce que ses prétendus héritiers ont fait de sa pensée.

mardi 23 décembre 2014

Les études économiques en support des nouveaux services

(Texte de la conférence du 10 avril 2014, publié dans le n° 19 des cahiers de l'Association pour l'Histoire des Télécommunications et de l'Informatique).

J'arrive au CNET1 en 1983 à l'invitation de François du Castel pour y monter une « mission d'études économiques ». Cette mission devait éclairer la perspective de la diversification des services sur les réseaux télécoms en coopération avec l'équipe de Patrice Flichy qui, elle, menait des recherches sur la sociologie des usages.

Le service téléphonique avait en effet pratiquement atteint sa pénétration finale après l'effort d'équipement lancé à partir de 1974. L'énergie acquise par la DGT dans cette période de vive croissance se cherchait de nouveaux débouchés : ce sera le Minitel, puis le Plan Câble.

Je venais de l'INSEE et ne connaissais rien aux télécoms. Il a donc fallu que je me mette à l'école comme un bizut en lisant des livres, en écoutant les chercheurs du CNET et surtout les explications que me donnait généreusement du Castel.

J'ai eu bien du mal à comprendre la diversité des télécoms : le codage numérique du signal vocal, le modèle en couches, les règles d'ingénierie et la hiérarchie des commutateurs du réseau général, l'architecture de Transpac, le protocole Ethernet sur les réseaux locaux d'établissement, etc. Il faudra je fasse un cours sur les techniques des télécoms à l'ENSPTT pour assimiler enfin leur vocabulaire, leurs principes et leurs méthodes. Je suis étonné quand je vois un inspecteur des finances accepter de prendre la présidence du gigantesque automate qu'est le réseau télécom sans éprouver apparemment la moindre inquiétude...

mercredi 10 décembre 2014

Lassitude

« Il nous faudrait un projet », vous dit-on. Vous en proposez un. « Il nous faudrait un projet », vous dit-on encore. Votre proposition n'a pas été entendue. On ne vous dit pas que ce projet n'est pas le bon, ni qu'il faudrait l'améliorer, car on n'y entre pas : on l'ignore. Vous souhaiteriez une discussion, on vous la refuse.

Vous dites « il faut s'orienter vers l'iconomie ». On vous répond « qu'est-ce que l'iconomie ? ». Vous énoncez une définition, la même personne demande encore « qu'est-ce que l'iconomie ? ». Vous répétez la définition, et de nouveau : « qu'est-ce que l'iconomie? », etc.

Après avoir dit « il nous faudrait un projet », on ajoute « nous n'avons pas besoin d'une théorie : ce qu'il faut, c'est avancer à petits pas dans la bonne direction ». Mais comment trouver « la bonne direction » si l'on n'a pas examiné la situation et tiré au clair des relations de cause à effet – ce qui, qu'on le veuille ou non, constitue une théorie ?

Ces personnes qui vous interrogent voudraient bien avoir un projet, une orientation, mais pas au point de faire l'effort d'entendre, de lire, de réfléchir, pas au point de faire l'effort de penser. La situation n'est apparemment pas encore assez dramatique.

Il ne faut pas croire qu'une démonstration puisse convaincre, qu'une définition puisse se partager : cela n'est vrai que pendant les cours de maths, et encore. Dans la vraie vie, seuls les démagogues se font entendre car ils savent, eux, comment il convient de répondre à des interrogations sans objet, des inquiétudes sans sujet, de vagues désirs sans urgence.

Tout cela me rappelle un sketch d'Anne Roumanoff : un enfant pose des questions à sa maman et chaque réponse est suivie d'un nouveau « pourquoi ? » jusqu'à ce que Maman, excédée, réponde « Merde ! ».

vendredi 5 décembre 2014

Des vieilles applications aux nouveaux processus

(Contribution à l'ouvrage de Jean Rohmer, Des tabulatrices aux tablettes, CIGREF et Nuvis, 2014.)

Introduction

L'informatisation s'est longtemps focalisée sur les « applications », programmes informatiques qui s'appuient sur la définition des données et sur des algorithmes. L'« approche par les processus », qui embrasse à la fois l'informatisation et l'organisation du travail humain, s'est imposée progressivement dans les années 1990.

Elle concrétise un alliage du cerveau humain et de l'automate qui fait émerger progressivement une économie et même une société nouvelles. Les entreprises commettent beaucoup d'erreurs mais, contrairement aux politiques, elles ne peuvent pas échapper longtemps à la pression physique de la nécessité. Elles constituent donc le laboratoire dans lequel cet alliage pourra par tâtonnement trouver sa pleine efficacité – mais il n'est pas sûr que cela se passera en France.

Application et processus

Une « application », c'est un programme qui reçoit des données (saisies manuellement ou provenant d'autres applications) puis leur applique un traitement pour fournir des résultats. Ainsi un programme de paie, convenablement alimenté, fournit des feuilles de paie, un programme de comptabilité fournit des comptes à jour. Les outils du travail personnel (traitement de texte, tableur) sont eux aussi des applications.

Le mot « processus » résume l'expression « processus de production » : il désigne l'ensemble des opérations qui, dans une entreprise, permettent d'élaborer un produit à partir de matières premières ou produits semi-finis.

À tout produit correspond le processus qui permet de le produire. Les processus existent donc depuis le néolithique et le concept n'a rien de nouveau. Cependant un processus peut être plus ou moins bien organisé. S'il est gouverné par des habitudes et traditions implicites son efficacité sera presque toujours médiocre : délais et qualité aléatoires, tâches redondantes, bras morts où s'égarent des travaux inachevés, etc.

La modélisation d'un processus explicite et organise la succession des activités qui contribuent à l'élaboration du produit. Elle permet aussi de contrôler qualité et délais.

L'informatique s'est focalisée au début des années 60 sur des opérations gourmandes en temps et en paperasses : comptabilité, paie, facturation, gestion des stocks, prise de commande. Elle s'est ainsi résumée à quelques grandes applications auxquelles l'entreprise attribuait un nom propre : Frégate à France Telecom, Sabre et Amadeus dans le transport aérien.

L'attention des informaticiens s'est naturellement concentrée sur les algorithmes qui procurent un résultat à partir des données saisies. Mais il est bientôt apparu qu'une même saisie devait pouvoir nourrir plusieurs applications, que le résultat d'une application devait pouvoir en alimenter une autre : la normalisation des bases de données et l'architecture des systèmes d'information ont dans les années 70 répondu à l'exigence de cohérence qui en résultait.

Dans les années 80 la dissémination des micro-ordinateurs et des réseaux locaux – puis dans les années 90 celle de l'Internet – a fait franchir un pas supplémentaire. Avec la documentation électronique et la messagerie il devenait en effet possible d'informatiser le parcours d'un processus en transférant d'un poste de travail au suivant les documents où s'inscrit l'élaboration du produit. À chacune de ces étapes l'informatique a dû s'enrichir de spécialités nouvelles tandis que des spécialités auparavant prestigieuses étaient repoussées au second rang : cela ne s'est passé ni sans drames, ni sans conflits.

lundi 1 décembre 2014

Introduction à la concurrence monopolistique

J'ai étudié la concurrence monopolistique dans les années 1980 pour pouvoir modéliser l'économie que l’informatisation faisait alors émerger.

Pour certains économistes, une expression qui associe « concurrence » et « monopole » semble un oxymore : ils préfèrent dire « concurrence oligopolistique », ce qui risque de leur faire perdre la solidité que la cohérence logique apporte au raisonnement.

Le modèle de l'iconomie (« économie informatisée efficace ») se bâtit en deux phases, l'une convergente et l'autre divergente, qui forment comme les deux moitiés d'un sablier. La première procède par induction : considérant les caractéristiques physiques de l'économie informatisée, elle infère que le marché de la plupart de ses produits obéit au régime de la concurrence monopolistique. La deuxième procède par déduction : prenant ce régime pour acquis, elle infère ses conséquences économiques et, plus largement, anthropologiques.

*     *

L'informatisation implique l'automatisation des tâches répétitives : l'essentiel du coût d'un produit se condense dans l'investissement qui est antérieur à la production proprement dite. Pour schématiser cela, on postule que le coût de production se réduit au coût fixe C.

Le coût moyen C/q étant d'autant plus bas que la quantité produite est plus élevée, le rendement d'échelle est croissant. L'entreprise qui détient la part de marché la plus importante peut alors pratiquer un prix plus bas que celui de ses concurrentes et, en principe, s'emparer de la totalité du marché : on dit alors que celui-ci obéit au régime du « monopole naturel ».

Ce n'est pourtant pas le cas même pour les produits fondamentaux de l'économie informatisée : sur le marché des microprocesseurs Intel est concurrencé par AMD, Samsung, etc., sur celui des systèmes d'exploitation Microsoft est concurrencé par Apple, Google, Linux, etc.

L'explication de ce phénomène réside dans une différenciation du produit qui répond à la diversité des besoins des consommateurs : le régime du marché n'est donc pas le monopole naturel, mais la concurrence monopolistique. Nous l'illustrerons en prenant un exemple simple.

*     *

Considérons une plage de longueur L où des vacanciers sont répartis selon la densité uniforme σ.

Un marchand de glaces s'installe. Il vend ses glaces au prix p. La consommation d'une glace procure à un vacancier le plaisir U mais l'aller-retour est d'autant plus pénible que la distance d qui le sépare du glacier est plus longue : nous supposons ce désagrément égal à kd.

La satisfaction S que la consommation d'une glace procure à un vacancier est donc :
S = U – p – kd .

dimanche 30 novembre 2014

Notre droite

J'ai beaucoup d'amis à droite. Ils sont certes conservateurs mais avec eux on ne subit pas le « ya qu'à, faut qu'on » hypocrite des gens « de gauche » ni l'inconséquence des trublions. Ils respectent les institutions, ils parlent un français correct, ils sont courtois et attentifs avec les personnes.

Il est ainsi plus utile aujourd'hui de lire Raymond Aron, qui a publié des éditoriaux dans le Figaro, que de lire Jean-Paul Sartre – bon écrivain sans doute, mais dont la pensée a souvent déraillé.

Notre droite, qui forme une moitié de la population française, n'est cependant pas constituée que de ces personnes intelligentes, correctes et cultivées : en votant hier pour celui que les Russes qualifient de « lapin cocaïnomane » elle a accordé une prime à la vulgarité et s'est montrée une fois de plus dupe d'une énergie factice, d'un activisme brouillon, d'un électoralisme forcené.

Oui, électoralisme : j'ai entendu Nicolas Sarkozy dire, lors d'un déjeuner organisé par l'Expansion, « il ne faut pas se cacher derrière son petit doigt : la seule chose qui compte, en politique, c'est de gagner les élections ».

Le fait est qu'il sait s'y prendre. Mais le virtuose de la bataille électorale restera inévitablement lui-même une fois élu : sa principale préoccupation ne sera pas de diriger un parti ni un pays, mais de gagner l'élection suivante.

Ainsi l'écureuil grimpe et regrimpe à l'arbre comme Nicolas Fouquet dont la devise était « Quo non ascendet », « Jusqu'où ne montera-t-il pas ». Plus dure sera la chute, certes, car un tel destin est tragique. Mais en l'attendant nous restons encore privés d'un stratège qui soit capable d'indiquer à notre pays une orientation judicieuse, puis de s'y tenir fermement.

samedi 22 novembre 2014

Les institutions et nous



Nous sommes tous victimes d'une illusion d'optique quand nous regardons une institution (une entreprise, un ministère, un « système » comme le système éducatif ou le système de santé, l’État, etc.) : son existence nous semble si évidente, si massive, que nous ne pensons pas qu'elle a pu être créée, « instituée », qu'elle aurait pu ne pas exister, qu'il se peut qu'elle cesse un jour d'exister.

Tandis que la permanence, l'éternité que nous lui attribuons nient son histoire et sa fragilité, nous percevons moins les services qu'elle rend que les défauts qu'elle présente : l'arrogance prétentieuse des dirigeants, le carriérisme hypocrite des cadres, le formalisme de l'organisation.

Les institutions nous irritent d'autant plus que rien, dans notre formation, ne nous a préparés à comprendre ce qu'elles sont, à percevoir leur utilité. La scolarité, les examens et les concours nous ont formés à l'individualisme, ainsi d'ailleurs que la littérature : rares sont, parmi les écrivains et les cinéastes, ceux qui ont mis en scène la vie d'une institution, sa naissance, sa mort et les épisodes dramatiques de son existence.

Comme elles sont exclues de notre imaginaire, de la façon dont nous concevons notre destin, elles nous exaspèrent. Pour les comprendre, pour savoir à quoi elles servent, il faut être sorti de l'adolescence, avoir mûri, avoir aussi médité l'histoire : et on sait que dans notre société l'adolescence se prolonge, parfois, jusqu'à la fin de la vie.

jeudi 13 novembre 2014

Le plein emploi dans l'iconomie

Lorsque nous disons que l'iconomie connaîtra le plein emploi, on nous enjoint de le « démontrer ». Cette injonction révèle une incompréhension de ce que sont l'iconomie et l'« emploi ».

L'iconomie n'est ni une prévision, ni une certitude. C'est le modèle d'une économie et d'une société informatisées qui seraient par hypothèse parvenues à l'efficacité.

Rien ne garantit que l'évolution nous y conduira effectivement : contrairement à ce que postulent nombre d'économistes, l'histoire montre que l'efficacité n'est pas un attracteur vers lequel les sociétés tendraient irrésistiblement.

L'économie informatisée actuelle est inefficace puisqu'elle connaît un chômage de masse qui stérilise une part importante de la force de travail. Il se peut que l'évolution se poursuive sur la piste ainsi amorcée : la crise serait alors durable et l'économie resterait engluée dans un « déséquilibre », comme disent les économistes (dans leur vocabulaire « équilibre » est synonyme d'« efficacité »).

C'est le risque de cette inefficacité durable qui nous a incité à explorer un monde, celui de l'iconomie qui, étant par hypothèse efficace, implique le le plein emploi. Mais ce raisonnement, nous dit-on, ne convainc pas parce qu'il est théorique. On veut « sentir » les choses et la logique pure n'y suffit pas. Nous devons donc aller plus loin.

samedi 8 novembre 2014

Pour une philosophie de l'informatisation

« La culture s'est constituée en système de défense contre les techniques ; or cette défense se présente comme une défense de l'homme, supposant que les objets techniques ne contiennent pas de réalité humaine. Nous voudrions montrer que la culture ignore dans la réalité technique une réalité humaine, et que, pour jouer son rôle complet, la culture doit incorporer les êtres techniques sous forme de connaissance et de sens des valeurs »
(Gilbert Simondon, Du mode d'existence des objets techniques, Aubier, 1958, p, 9).


*     *

L'informatique, science et technique de la conception et de la programmation des automates, a provoqué un phénomène historique, l'informatisation, qui confronte les intentions et les actions humaines à de nouvelles possibilités et de nouveaux dangers.

L'informatisation s'inscrit dans la vie des institutions1 avec leurs « systèmes d'information », ainsi que dans la vie quotidienne de chacun avec le Web, le téléphone « intelligent », les réseaux sociaux, etc.

La nature est transformée : l'Internet et l'informatisation de la logistique effacent nombre des effets de la distance, l'impression 3D franchit l'écran qui sépare les choses de leur représentation, l'Internet des objets enrichit les relations entre les choses, entre les choses et les automates, entre les choses et les personnes.

L'informatique semble ainsi accomplir la promesse de la magie, « commander aux choses par la parole » : des programmes qui commencent par « {public static void main (string args[ ]){ » supplantent efficacement « Abracadabra » et « Sésame, ouvre toi ».

Un défi est ainsi adressé aux philosophes2 : embrasser l'ensemble de ces phénomènes pour nous permettre de penser leurs conditions de possibilité et leurs conséquences ultimes.

L'enjeu est historique autant qu'intellectuel car l'informatisation place la société au carrefour de deux évolutions : l'une, dans laquelle elle s'est engagée, est celle de la consommation aveugle, de la crise des institutions, du clivage entre riches et pauvres, du déploiement de la violence.

L'autre est celle qui, tirant parti des possibilités et maîtrisant les dangers qui les accompagnent, conduirait à une société de classe moyenne où le système éducatif formerait des compétences, où le plein emploi serait assuré, où les rapports entre personnes s'appuieraient sur la considération, où la consommation serait exigeante en qualité et sobre en volume.

Après une révolution industrielle la société, désorientée, ne fait l'effort de comprendre la nouvelle nature qu'après un épisode de destruction. La responsabilité de ceux qui savent penser est aujourd'hui de faire en sorte que cet épisode soit aussi bref que possible.

vendredi 7 novembre 2014

Pour François Hollande

J'ai trouvé François Hollande convaincant hier soir et beaucoup plus sympathique que ses prédécesseurs. Que l'on se rappelle donc l'énergie factice de Sarkozy, Chirac et sa façon de répondre à côté de la question, la prétention « culturelle » de Mitterrand, Giscard et son cerveau « supérieur » et sentencieux, Pompidou et sa « modernité »... De Gaulle reste bien sûr hors concours.

Après l'émission de TF1 les politiques ont exprimé la position de leur parti : la « gauche » (sauf les extrémistes) a trouvé Hollande bon, la « droite » l'a trouvé mauvais. Ces opinions préfabriquées n'ont aucune signification.

Mais qu'elle soit « de droite » ou « de gauche » la presse unanime a tiré sur Hollande. Le Monde estime qu'il a été « aux antipodes du mélange d'autorité et de souveraineté que les Français attendent du chef de l’État » (sic) et « trop attentiste pour être convaincant ». Libération a jugé l'émission « plombante sur la forme, guère emballante sur le fond » et estime que Hollande a raconté « quelques bobards ». Le Figaro, cela ne surprend pas, titre « encore raté ! » et commente : « échec », « naufrage », etc.

Les journalistes ont-ils vu la même émission que moi ? Je crois plutôt qu'ils hurlent avec les loups : celui qui ose s'exprimer au rebours des sondages passe pour un jobard. Peu de gens ont pris ce risque sur Twitter.

J'ai toujours détesté ces situations dans lesquelles au lycée, dans l'entreprise, une meute prend plaisir à se savoir unanime en sacrifiant un bouc émissaire.

Hollande a pourtant raison de soutenir les entreprises : ceux qui le lui reprochent semblent croire que les emplois et le bien-être matériel peuvent sortir du sol comme l'herbe au printemps. Soutenir les entreprises, c'est d'ailleurs soutenir les entrepreneurs et non le patronat.

Il a eu raison de rappeler la nécessité des institutions à la dame chef d'entreprise qui croit que la décision politique puisse sortir du sol.

Il a raison de juger prioritaire la lutte contre le réchauffement climatique, de reconnaître l'importance du « numérique » (même si je préfère dire « l'informatisation »). Il s'exagère l'apport économique des énergies renouvelables mais il n'est pas le seul : Rifkin est à la mode.

Personne ne lui a demandé ce que l’État peut faire pour contenir les rémunérations prédatrices, l'abus de biens sociaux, la fraude fiscale, le blanchiment... on ne peut pas lui reprocher de ne pas en avoir parlé.

Il a été aimable et correct avec les personnes que l'on avait mises en face de lui, il s'est prêté à l'exercice en direct et sans filet. Il a répondu aux questions, il n'a pas esquivé les difficultés de l'heure, il n'a pas joué à l'« énergique » ni à l'homme supérieur.

Il m'a paru sérieux, responsable. Ce président fait de son mieux dans une situation difficile. Il respecte la France, il nous respecte, il nous fait honneur devant les autres pays.

Que demander de plus ? Que notre président soit un génie, un faiseur de miracles, un prestidigitateur capable de créer le lapin qu'il sort du chapeau ? Un souverain à qui l'onction du sacre aurait conféré l'omniscience ?

Il a des limites ? Sans doute, car c'est le lot de tout être humain. Il ne faut pas demander à un président d'être Superman.

A quoi nous sert donc de prendre Hollande pour bouc émissaire, sinon à soulager notre peur collective, notre incapacité à assumer notre personnalité historique, notre République, dans le monde que fait émerger l'informatisation ?

mercredi 5 novembre 2014

La démocratie se paralyse

Les dernières élections américaines ont donné la majorité au parti républicain, dont le programme se réduit à combattre Barack Obama (cf. l'éditorial du New York Times, Negativity Wins the Senate).

Ce parti veut revenir sur la limitation du droit à détenir une arme, la réforme du système de santé, la régulation des banques, la lutte contre le changement climatique, la réforme de l'immigration, les investissements dans le système éducatif. Pour relancer l'économie, ses propositions se limitent à construire un pipe-line avec le Canada, réduire encore les impôts sur les plus riches et crier contre « Obamacare ».

Ainsi la démocratie américaine s'enfonce, séduite par des slogans populistes. Qu'en est-il en France ?

Quelle que soit la qualité éventuellement discutable des projets, ils rencontrent tous une opposition musclée : l'opinion, majoritairement individualiste, déteste les institutions. Elle n'autorise au gouvernement que deux activités qui éveillent l'émotion : les commémorations, l'hommage aux victimes. Elles sont peu fatigantes.

Personne ne voit que l'informatisation a transformé les ressources et les dangers que présente la nature, et donc transformé l'économie : ceux qui détestent l'Entreprise ignorent les systèmes d'information et ne veulent percevoir que les usages individuels du « numérique » : Web, réseaux sociaux, etc.

Cependant les abus de biens sociaux et la fraude fiscale se poursuivent, le crime organisé et la corruption prospèrent grâce au blanchiment, la Banque exerce une prédation sur le système productif, les dirigeants s'attribuent des fortunes sous le prétexte de « rémunération » et de « retraite ».

Tandis que la démocratie se paralyse, un régime féodal s'instaure. Lorsqu'il sera solidement installé nous ferons comme le corbeau honteux et confus de la fable : nous jurerons, mais un peu tard, qu'on ne nous y prendra plus.

jeudi 30 octobre 2014

Dimensions de l'enseignement de l'informatique

(Article destiné à la revue EpiNet de l'association « Enseignement public & Informatique »)

De quoi parle-t-on lorsque l'on dit qu'il faut « enseigner l'informatique » ? Que veut-on enseigner, au juste ?

Certains sont tentés de se limiter à l'art de la programmation, pour lequel la référence est l'ouvrage monumental de Donald Knuth1 – et il est vrai que l'algorithmique pourrait, à elle seule, nourrir un programme étalé sur plusieurs années de cours suivies par une vie entière de recherche.

Mais l'informatique se réduit-elle aux algorithmes ? Non, bien sûr, car l'algorithmique n'est que l'une de ses couches. Elle en comporte d'autres que l'on peut découper de diverses façons : on peut par exemple distinguer la couche physique des processeurs, mémoires et réseaux ; la couche sémantique où sont définies les données ; la couche « processus » où l'informatique rencontre le comportement des êtres humains ; etc.

L'informatique est d'ailleurs essentiellement orientée vers l'action : comme le disent Abelson et Sussman2 elle répond à la question « how to », « comment faire », alors que les mathématiques répondent à la question « what is », « qu'est-ce que c'est » en déployant ce qu'impliquent des définitions. Un enseignement qui négligerait la relation entre l'informatique et l'action, c'est-à-dire l'informatisation, serait artificiel.

Il suffit pour s'en convaincre de penser à la qualité des données. La règle « garbage in, garbage out » est implacable : si les données sont mal définies (incohérentes, polluées par des synonymes et des homonymes, etc.), l'algorithme le mieux conçu ne peut rien fournir qui vaille.

Or on ne peut définir les données de façon pertinente que si l'on a défini d'abord l'action que l'on veut réaliser, puis désigné les êtres réels qu'elle concerne et sélectionné les attributs qu'il convient d'observer. Pour construire un modèle de données il faut donc se poser la question « que voulons-nous faire », point de départ de l'ingénierie sémantique.