Musset a dit qu'une porte doit être ouverte ou fermée, et en effet l'un exclut l'autre. Mais un chemin peut à la fois monter ou descendre, cela dépend du sens de la marche, tout le monde sait cela. On entend cependant parfois des phrases équivalentes à « un chemin ne peut pas à la fois monter et descendre, c'est l'un ou l'autre », car le langage nous confronte à des paradoxes dès que nous sortons du champ de l'expérience habituelle.
On rencontre ainsi souvent, dans les réunions consacrées aux systèmes d'information, des concepts fallacieux, des données inexactes qui égarent le raisonnement et désorientent l'action. L'expert en réunion, excellente vidéo, met en scène de façon comique mais fidèle les absurdités qui se disent alors.
Certains poussent l'égalitarisme jusqu'à prétendre que toutes les langues se valent et jugent inutile de se soucier de la qualité du langage. Le fait est pourtant que les mots que nous prononçons ont des effets réels, qu'un vocabulaire impropre engage la pensée et l'action dans des impasses : nous en donnerons des exemples. Pour pouvoir agir de façon judicieuse dans un monde qui évolue, il nous faut une langue aussi exacte que ne l'était celle de Condillac, aussi bien affûtée que des instruments de chirurgie.
Que deviendrait d'ailleurs notre langue si nous ne résistions pas aux injonctions du politiquement correct, au jargon des administrations et des médias, au parler « populaire » factice qu'affectent ceux qui craignent de passer pour des bourgeois (voir le « Petit dictionnaire Correct-Français et Français-Correct ») ?
Qualité des statistiques
J'ai eu à l'INSEE un échange avec Edmond Malinvaud à propos du métier de statisticien. La statistique doit être objective, disait-il. Non, lui répondis-je, elle doit être d'abord pertinente, puis exacte.
S'il s'agit quand on évoque l'objectivité de dire que les résultats de l'observation doivent être rapportés fidèlement, sans les fausser pour obéir à un pouvoir ou à une idéologie, c'est une façon prétentieuse de dire qu'un statisticien doit être tout simplement honnête. Cette exigence va tellement de soi qu'il est quelque peu désobligeant de l'énoncer.
Mais « objectivité » a un autre sens qui s'entrelace insidieusement avec l'injonction morale dans la phrase de Malinvaud : la statistique devrait, étant objective, reproduire exactement l'objet qu'elle observe. Or c'est impossible car aucune observation ne peut reproduire exactement un objet concret, qu'il s'agisse d'un individu, d'une population, d'un système productif, des prix, etc.
Lorsque vous conduisez une voiture, l'image du paysage s'affiche en entier sur votre rétine mais votre cerveau y sélectionne les seuls éléments nécessaires à la conduite : route, signaux, véhicules, obstacles, etc. Vous seriez un danger public si votre attention était attirée par les détails qui intéressent un promeneur.
Chacun doit utiliser, pour sélectionner ce qu'il observe, la grille conceptuelle qui convient à son action. Cette règle a une portée générale et elle s'applique donc aussi à la statistique. Avant d'observer, celle-ci doit définir les concepts qui délimiteront l'observation. L'histoire montre qu'ils ont évolué : les activités industrielles, par exemple, ont été classées au XVIIIe siècle selon la matière première utilisée (végétale, animale, minérale), au XIXe selon la destination du produit, au début du XXe selon les équipements employés, à partir de 1945 selon leur association dans les entreprises. Chacune de ces classifications a été jugée « naturelle » en son temps parce qu'elle répondait aux priorités de l'époque, et que celles-ci ont évolué de l'utilisation des matières premières à l'application de taxes douanières, puis à l'investissement, enfin à la comparabilité des données physiques et financières.
Le premier critère de qualité est ainsi celui de la pertinence des concepts, de leur adéquation aux besoins de l'action. Mais si une grille conceptuelle répond à certains besoins, il se peut qu'elle ne réponde pas à d'autres : la « neutralité » du statisticien semble alors s'évanouir... on comprend qu'il puisse lui être pénible de chercher à quelles actions peuvent convenir les concepts que ses outils incorporent, mais n'est-il pas mensonger de masquer cette interrogation derrière le double sens du mot « objectivité » ?
Oleg Arkhipoff, théoricien estimable, disait que la statistique doit être précise. Je lui ai suggéré de dire plutôt qu'elle doit être exacte, mais cette remarque l'a tellement contrarié qu'il ne lui a pas accordé un instant de réflexion.
« Exactitude » et « précision » ne sont pas synonymes. Si je dis que la bataille de Waterloo a eu lieu au XIXe siècle, c'est exact mais imprécis. Si je dis qu'elle a eu lieu le 19 juin 1815, c'est précis mais inexact.
La statistique la plus précise n'est pas nécessairement la meilleure car un excès de précision donne une idée fausse de l'objet observé : mesurer au micron près la taille d'une personne, c'est suggérer que le corps humain est aussi ferme qu'une barre d'acier alors qu'il est élastique et que sa longueur varie au cours de la journée. Publier l'effectif d'une population à l'unité près, c'est encourager des illusions car un recensement présente un taux d'erreur de l'ordre de 1 %.
La qualité d'une statistique ne doit donc pas s'évaluer selon sa précision, mais selon son exactitude, c'est-à-dire selon sa capacité à alimenter un raisonnement exact. Souvent un ordre de grandeur pourra suffire, voire même une indication qualitative : après de longs calculs et des estimations délicates, la décision de lancer ou non un projet se résume par les mots « oui » ou « non », l'évaluation d'une conjoncture se résume par les mots « ça baisse » ou « ça monte » accompagnés de qualificatifs comme « un peu » ou « beaucoup » : le but d'une démarche quantitative réside dans sa conclusion qualitative.
Statistique et Big Data
Une donnée, c'est le couple que forment un concept et son observation (ou mesure) sur un individu ou une population.
Le « Big Data » procède à une analyse des données qui examine des corrélations, mais celles-ci ne seront significatives que si les données sont d'assez bonne qualité. Faire du « Big Data » sans savoir comment les données ont été définies, puis observées, c'est prendre le risque du garbage in, garbage out : si l'on alimente un raisonnement avec des ordures, sa conclusion sera fallacieuse.
Or il arrive souvent qu'un concept soit biaisé (des investissements immatériels sont comptabilisés parmi les dépenses d'exploitation), qu'une même dénomination recouvre des concepts différents (lorsqu'on fait des comparaisons internationales ou lorsqu'on compare deux époques). Il arrive aussi qu'une mesure soit inexacte, notamment lorsque l'observation est incomplète (données manquantes, « principe de prudence » des comptables, etc.).
Une corrélation n'est d'ailleurs qu'un indice, au sens qu'a ce mot dans une enquête policière, et un indice n'est pas une preuve : ceux qui prétendent interpréter des données sans se référer à la théorie du domaine observé, trésor accumulé par les interprétations antérieures, prennent le risque de provoquer l'équivalent d'une erreur judiciaire.
La statistique « officielle »
Pour évaluer la qualité d'une statistique il faut connaître la façon dont elle a été élaborée, ce qui suppose une expertise délicate. L'administration, les médias et le grand public jugent plus commode de faire confiance à la statistique « officielle », adjectif censé garantir sa qualité.
Lors d'une visite au Statistisches Bundesamt de Wiesbaden en 1973 Michel Hébert, Pierre Teillet et moi avons ainsi rencontré le statisticien allemand qui était chargé d'évaluer le volume de la production industrielle. Ce volume s'obtient en divisant la somme des valeurs ajoutées des entreprises, que fournit une enquête, par un indice de prix dont la qualité conditionne celle de l'indice de volume.
Nous avons donc demandé à ce collègue ce qu'il pensait de la qualité de l'indice de prix. « Je n'ai pas le droit de me poser cette question », répondit-il en désignant sur la brochure des indices l'aigle, symbole de la république fédérale : il s'interdisait de s'interroger sur la qualité d'un indice « officiel ».
La statistique « officielle » sert en France à évaluer les comptes nationaux qui, étant eux aussi « officiels », permettent d'étalonner les équations des modèles. Les macroéconomistes, qui ne se soucient ni de la qualité des statistiques, ni des procédés périlleux qu'utilisent les comptables nationaux pour estimer les données manquantes, sont comme l'enfant qui grimpe, pour attraper le pot de confiture placé au sommet d'un buffet, sur un escabeau enté sur une chaise elle-même posée sur une table. Ils risquent comme lui la dégringolade qui mettra par terre leur raisonnement et ses conclusions.
A-t-on le droit de dire que la Terre est plate ?
Revenons au conducteur d'une voiture. Sa grille conceptuelle comprend les feux de signalisation et un feu qui se trouve devant lui est vert, orange, rouge ou éteint : ce conducteur n'est pas libre de décider du résultat de son observation. Si elle est exacte, elle lui permettra d'agir de façon judicieuse.
J'ai eu sur ce point une controverse avec un bon statisticien, René Padieu, et un excellent économiste, Dominique Henriet. Ils poussent tous deux la liberté de pensée jusqu'à s'attribuer « le droit de penser et de dire que la Terre est plate ». Il ne s'agit pas pour eux de dire qu'une petite surface de la Terre est approximativement plane, mais de revenir aux modèles antiques qui représentaient la Terre comme un plan illimité ou comme un disque plat bordé par un gouffre.
Ils éviteront certainement d'induire leurs enfants en erreur : ils leur diront bien sûr que la Terre a la forme d'une boule. S'ils estiment pourtant avoir le droit d'affirmer qu'elle est plate, c'est parce qu'ils revendiquent la liberté dont jouit, dans le monde de la pensée pure, le mathématicien qui choisit ses axiomes sous la seule contrainte de la non-contradiction.
Il est vrai que des recherches fécondes, comme celles qui ont porté sur les géométries non euclidiennes, ont eu pour point de départ un axiome qui, pensait-on alors, tournait le dos au sens commun.
Mais lorsqu'on se confronte au monde de la nature on sort du territoire des mathématiques pour entrer dans celui de la science expérimentale. La pensée doit alors se courber sous le joug de l'observation et les hypothèses que celle-ci contredit doivent être éliminées : s'il était possible dans l'Antiquité de penser que la Terre est plate, ce n'est plus le cas aujourd'hui. Celui qui comme Claude Allègre maintient des propositions que l'observation a contredites mérite d'être qualifié de négationniste.
Lorsque Padieu et Henriet disent « j'ai le droit », ils ne pensent certainement pas au droit que la loi définit car un juge ne condamnera pas quelqu'un qui soutient que la Terre est plate : il estimera plutôt que cette personne est un peu dérangée. Ils placent la liberté de pensée et d'expression au-dessus du constat des faits et, ce faisant, tournent le dos à tout ce que la démarche expérimentale a apporté depuis Galilée.
Experts et dirigeants
La relation entre experts et dirigeants devrait être en principe mutuellement respectueuse : le dirigeant nourrit son intuition en écoutant l'expert qui lui indique l'évolution du monde et l'état de l'art des techniques. L'expert accepte en retour la décision du dirigeant, car celui-ci prend en compte un ensemble de faits plus large que celui qu'enveloppe une expertise.
Ce n'est cependant pas ainsi que les choses se passent. Supposons que vous soyez un de ces hommes « qui ont beaucoup étudié, qui ont formé leur pensée au prix de grands efforts et en suivant le cours des pensées d'autres hommes qui les ont précédés, et qui forment un groupe particulièrement important pour la communauté humaine car leurs avis sont mieux fondés que ceux des autres1 ».
On vous invite à participer à une table ronde, on annonce que le ministre sera présent. Les experts de la table ronde disent des choses intéressantes, d'autres qui sont dans le public interviennent utilement, mais le ministre n'est pas là. Il arrive tout à la fin, comme j'ai vu Fleur Pellerin2 le faire lors d'un colloque à Bercy, pour lire le discours qu'a écrit un conseiller, succession d'évidences banale, d'erreurs d'interprétation et de déclarations d'intention qui n'engagent à rien. À la fin d'un tel discours, les experts seront assez poires pour applaudir ! Tel est chez nous le rapport entre la parole « officielle » d'un ministre et celle des experts.
Voici un autre exemple : j'ai présidé en 2009-2011 le groupe de travail de l'institut Montaigne qui a abouti au rapport Le défi numérique. Nous avons auditionné Nathalie Kosciusko-Morizet3 en mars 2010.
« Notre groupe de travail étudie le phénomène de l'informatisation », ai-je dit en introduction. « Informatisation, ce mot est ringard, s'exclama-t-elle, d'ailleurs le mot informatique me fait marrer ». Être jugé ringard par un ignorant m'a procuré un plaisir semblable à celui que ressentait Courteline lorsqu'un imbécile le traitait d'idiot.
Sans s'enquérir du sens que nous donnions au mot « informatisation », la ministre s'est ensuite lancée dans une improvisation, les deux conseillers qui l'accompagnaient restant muets comme des potiches. En France, un ministre qui rencontre des experts (en l'occurrence Frédéric Créplet, François Rachline et moi) parle ainsi avec autorité pendant que les experts se morfondent en silence, car il est exclu qu'ils puissent relever ses impertinences. Ce monde-là fonctionne à l'envers.
J'ai rencontré il est vrai des ministres qui savent écouter : Anicet Le Pors, Jean-Pierre Chevènement, Arnaud Montebourg... mais ces exceptions confirment la règle et même quand l'interlocuteur écoute la relation entre l'expert et le dirigeant est toujours difficile.
La langue en construction
Il est entendu qu'il faut, pour pouvoir être compris, se conformer à l'usage de la langue. Il faut aussi accepter que la langue évolue, car elle est vivante.
Chaque génération reçoit sa langue de celle qui l'a précédée, elle la transmet à la suivante après l'avoir améliorée ou dégradée. Les suppressions, les créations, peuvent être malencontreuses : le vocabulaire étant sujet à des effets de mode, rien ne garantit que les tournures que celle-ci propose soient de bonne qualité.
Les mots anciens ont été patinés par un long usage : on en trouvera un exemple en allant au mot « entendre » dans le Dictionnaire de la langue française de Littré. Ces mots sont un patrimoine que chaque génération doit gérer, et elle doit savoir évaluer les néologismes avant de les y ajouter.
Il ne faut donc pas accepter de façon passive le vocabulaire que la mode propose : notre génération trahirait ses responsabilités si elle ne le discutait pas.
Produits, biens et services
Ceux qui disent « les produits et les services » suggèrent que les services, n'étant pas des produits, ne résultent pas d'une action productive : cela donne à penser que les personnes qui travaillent dans les services, étant improductives, sont parasitaires. Certaines entreprises en déduisent qu'il n'est pas nécessaire qu'elles possèdent une compétence et qu'il faut les payer le moins possible : telles sont les conséquences désastreuses d'un vocabulaire malencontreux.
Le langage des statisticiens est plus pertinent. Ils distinguent les biens, produits qui ont une masse et occupent un volume dans l'espace, et les services qui, étant « la mise à disposition temporaire d'un bien ou d'une compétence », sont eux aussi des produits. Ainsi il apparaît clairement que les services résultent, comme les biens, d'une action productive, et les effets négatifs de l'expression « produits et services » sont évités.
Dans l'économie contemporaine la plupart des produits sont d'ailleurs un assemblage de biens et de services. L'automobile, par exemple, ne se conçoit pas sans des services : financement d'un prêt, garantie pièce et main d’œuvre, entretien périodique, assurance, « stations-service », etc. Ceux qui distinguent les produits des services ne peuvent pas se représenter un tel assemblage, il leur manque donc les mots qui permettent de comprendre ce qui se passe dans notre économie.
J'entretiens sur ce sujet un débat avec Jean-René Lyon, excellent informaticien, qui juge utile de maintenir la distinction entre produits et services. Il nomme « produit » ce qui est stockable (les biens, l'information) et « service » ce qui ne l'est pas. Selon lui, la location d'un bien n'est pas un service puisque ce bien est un produit. Pour éviter de dire qu'un service résulte d'une production, il dit qu'il est « exécuté ». Il nomme enfin « offre » un assemblage de biens et de services (pour plus de détail, voir sa page « Identifier le modèle de produit »).
Le langage des statisticiens ne comporte pas de telles contorsions. Pour eux, comme pour tout le monde, le mot « offre » désigne le couple que forment un produit et son prix, et le sens que Jean-René Lyon donne à ce mot s'écarte trop du langage courant. Dire que l'information est « stockable », c'est enfin la considérer comme une chose alors qu'il est plus judicieux de la considérer comme une action.
C'est ce que fait Gilbert Simondon en retenant le sens originel et exact du mot4 : l'information, c'est ce qui, donnant une « forme intérieure », procure une « formation » et donc une capacité d'action. L'information est ainsi la transformation qui se produit dans un cerveau humain ou dans un système technique lorsqu'il reçoit ou rencontre un « document » (message, texte, son, image, etc.) qu'il sait interpréter. La théorie de l'information de Simondon est plus féconde pour la réflexion que ne l'est celle de Shannon, dans laquelle « the meaning doesn't matter ».
Numérique, digital et informatisation
Prenons « information » selon son sens exact et non selon celui de Shannon ou celui, plus dégradé encore, que l'on rencontre dans l'expression « les informations de vingt heures ». « Informatisation », qui désigne l'alliage évolutif d'« information » et d'« automate », désigne exactement la mise en scène du couple que constituent le cerveau humain et l'automate programmable. Ce couple est un être composite aussi nouveau que ne le fut en son temps l'alliage du cuivre et de l'étain, qui a fait émerger l'âge du bronze avec toutes les dimensions de son anthropologie.
Nathalie Kosciusko-Morizet aurait sans doute préféré que je dise « numérique », mot qui figurait dans l'intitulé de son ministère. Le titre de notre rapport a d'ailleurs finalement été conforme à la mode : il fallait paraît-il, pour pouvoir être compris par les indigènes, accepter de parler leur pidgin.
Si « informatisation » est jugé ringard, c'est pour des raisons qui tiennent à l'histoire, à la sociologie, et n'ont rien à voir avec ce que ce mot désigne. Dans les entreprises et les institutions, une informatique contraignante a été imposée aux agents à partir des années 1960 et c'est la corporation des informaticiens qui a été chargée de leur infliger cette contrainte. L'antagonisme qui en est résulté a laissé des traces.
Quand dans les années 1970 l'informatique a commencé à s'assouplir pour se mettre au service des utilisateurs, les informaticiens ont tenté de résister à ce qui leur semblait une perte de pouvoir : ils ont renâclé devant le micro-ordinateur et les réseaux locaux dans les années 1980, la messagerie et le Web dans les années 1990, les terminaux mobiles dans les années 2000. Il est vrai que chacune de ces innovations leur compliquait la vie, mais leur attitude a fait croire que les usages ne pourraient se déployer qu'en tournant le dos à l'informatique.
Dans sa thèse d'histoire5, Benjamin Thierry a distingué deux catégories d'informaticiens : les concepteurs et les serviteurs de l'informatique (voir la vidéo « Comment le numérique invente ses utilisateurs »). On doit aux informaticiens concepteurs les innovations qui ont rendu l'ordinateur commode, les réseaux qui leur permettent de communiquer (Ethernet, l'Internet) et les « applications » qui fleurissent sur ce socle physique et logique : téléphone « intelligent », réseaux sociaux, etc.
Les « serviteurs » sont ceux qui s'efforcent de faire fonctionner l'informatique dans les entreprises et les institutions. Leur métier suppose de maîtriser et faire coopérer des spécialités diverses, de résoudre des problèmes techniques difficiles, de subir les récriminations d'utilisateurs qui ne savent pas toujours ce qu'ils veulent mais exigent de l'obtenir immédiatement.
Benjamin Thierry distingue aussi deux générations dans les interfaces homme-machine. La première a été destinée à des professionnels qui, comme les contrôleurs aériens ou certains militaires, remplissaient une fonction technique précise. La deuxième, qui résulte des efforts de certains informaticiens dans les années 19606, a masqué la complexité de l'ordinateur afin qu'il puisse être utilisé de façon instinctive par le grand public.
Plutôt que de faire l'effort de devenir les « clients compétents » des serviteurs de l'informatique, les entreprises préfèrent aujourd'hui dire « numérique » ou, cédant à la mode de l'anglais, « digital ». Ces mots qui évoquent le codage binaire des documents dans la couche la plus technique de l'informatique sont de façon paradoxale utilisés pour désigner « les usages ». Ils servent à oublier le socle physique et logique de l'informatique, qui délimite pourtant les possibilités offertes aux usages, et sans doute aussi à régler par la même occasion son compte à la corporation des serviteurs de l'informatique.
Il en résulte d'étonnantes niaiseries. « Seuls les usages sont innovants ! », proclamait un de mes amis : il oubliait le transistor, les circuits intégrés, la fibre optique, les langages de programmation, toutes innovations techniques qui ont permis l'existence des usages. « Ce qui importe, ce sont les start-ups, les PME innovantes ! », a dit un autre ami : c'est ignorer que l'enjeu de l'informatisation réside dans la qualité du couple que forment le cerveau humain et l'automate programmable dans l'ensemble des institutions, donc ni seulement ni principalement dans les PME et les start-ups quelle que soit la sympathie que l'on peut avoir pour elles.
Dès que l'on entreprend de concrétiser les ambitions du « numérique », on rencontre d'ailleurs l'informatisation : former les jeunes au « numérique », c'est les préparer à penser et agir dans les dimensions physique, logique, psychologique et sociologique de l'informatisation. La « transformation numérique (ou digitale) de l'entreprise » n'est rien d'autre que son informatisation. « L'entreprise numérique », c'est en fait l'entreprise informatisée, etc.
L'usage est à chaque instant délimité par les possibilités qu'offre la technique. Si l'on connaît ces possibilités, on peut les exploiter sans s'interroger sur ce qui les conditionne : les adolescents font cela avec une agilité qui impressionne les personnes plus âgées.
Mais le stratège, le politique, ont besoin d'une prospective qui, considérant la dynamique des techniques, anticipe l'évolution des possibilités : c'est même une condition nécessaire pour que les inventions, les innovations, puissent être rapidement comprises et mises en œuvre. Alors que « numérique » focalise l'attention sur l'exploitation des possibilités existantes, « informatisation » invite à penser une dynamique : « numérique » est photographique, « informatisation » est cinématographique.
Admettons que « numérique » et « digital » puissent, malgré leur étymologie étrange, désigner la pleine utilisation des possibilités qu'offre aujourd'hui l'informatique. Cela suppose de redéfinir la mission des institutions, de bousculer leur organisation : les serviteurs de l'informatique devront assumer les complications que cela occasionne.
Mais le concepteur, le stratège, le politique doivent pouvoir anticiper l'évolution du socle physique et logique qu'offre l'informatique ainsi que les phénomènes anthropologiques que provoque l'informatisation : alors c'est ce dernier mot qui doit s'imposer à leur réflexion.
Si tant d'institutions et de ministères s'enferment dans la vision tactique que suggèrent le mot « numérique » et la priorité donnée aux usages, cela révèle qu'ils ont choisi de ne pas avoir de stratégie, de rester indéfiniment les suiveurs de conceptions qui répondent à d'autres priorités que les leurs.
___
1 Werner Heisenberg, La partie et le tout, Flammarion, 2010, p. 257.
2 À l'époque « ministre déléguée aux PME, à l'Innovation et à l’Économie numérique ».
3 À l'époque « secrétaire d’État chargée de la Prospective et du développement de l’Économie numérique ».
4 « L'information n'est pas une chose, mais l'opération d'une chose arrivant dans un système et y produisant une transformation. L'information ne peut pas se définir en dehors de cet acte d'incidence transformatrice et de l'opération de réception » (Gilbert Simondon, Communication et information, Éditions de la transparence, 2010, p. 159).
5 Donner à voir, permettre d’agir. L’invention de l’interactivité graphique et du concept d’utilisateur en informatique et en télécommunications en France (1961-1990), thèse soutenue le 10 décembre 2013 à la Sorbonne.
6 Steven Levy, Hackers, Delta Publishing, 1994.
Aucun commentaire:
Enregistrer un commentaire