dimanche 9 mars 2014

Marre de « numérique »

Tout est ou doit être « numérique » : l'entreprise numérique, la société numérique, l'intelligence numérique etc. Le numérique, c'est chic, c'est branché : c'est à la mode.

Mais « numérique » n'est que le cache-sexe d'« informatique ». La feuille de vigne masque cette réalité : tout ce qui est numérique se condense dans des programmes, du matériel, l'Internet et le Web qui sont tous des réalisations informatiques. Sans programmes, sans processeurs, sans mémoires, sans réseaux, il n'y a pas de « numérique ».

Oui, me dira-t-on, mais le « numérique » c'est bien plus que le logiciel, les processeurs, les mémoires et les réseaux : cela contient aussi la sociologie des usages, la psychologie des utilisateurs, des effets sur l'économie des médias, etc.

Mais qui vous dit donc qu'« informatique » ne contient pas tout cela ? Si vous étiez attentif à l'étymologie, vous verriez que ce mot est forgé à partir d'« information » et d'« automate » et que l'« information » est ce qui donne une « forme intérieure » au cerveau humain, c'est-à-dire une capacité d'action. « Informatique » contient donc tout ce qu'il faut pour désigner à la fois la technique et l'éventail de ses conséquences anthropologiques.

« Numérique » prétend cacher la technique alors que pris à la lettre il désigne ce qu'il y a de plus technique dans l'informatique : le codage en zéro et un nécessaire au fonctionnement du processeur. Par un de ces retournements sémantiques fréquents dans l'usage de la langue, « numérique » en est venu à désigner, de façon d'ailleurs très floue, l'ensemble des dimensions sociologiques et autres de l'informatisation en les détachant de leur socle technique.

Le fait est pourtant que dans le « numérique » toutes les réussites sont le fait de personnes qui connaissent parfaitement l'informatique et savent comment il convient de programmer les automates. Les inventeurs de Google, de Facebook, sont des informaticiens virtuoses tout comme Xavier Niel, Ryad Boulanouar, etc.

Il est vrai que la compétence en informatique ne suffit pas : il faut aussi savoir anticiper les usages, sentir des besoins latents, il faut que l'informaticien ait une intuition sociologique ou qu'il prenne comme partenaire quelqu'un qui la possède. Mais dans tous les cas la compétence en informatique est nécessaire.

« Informatique », « technique », tout cela fait ringard. On préfère s'extasier devant la virtuosité des jeunes au clavier, devant le chatoiement des interfaces graphiques – celui-ci est dû aux lignes de code qu'ont écrites des informaticiens, mais on préfère ignorer ce fait que l'on juge vulgaire.

Des informaticiens, devenus honteux d'une discipline que tant de gens croient ringarde, cèdent eux aussi à la mode : pour se faire bien voir ils disent « numérique » ou même « digital », mais cet usage malencontreux a un coût pour la société et pour l'économie. En se conformant à une mode qui méprise l'informatique, on refuse à celle-ci l'attention qu'elle mérite et on prend le risque de la priver de son efficacité.

On va former les jeunes au « numérique », mais non à l'informatique puisqu'elle est ringarde. Ils vont savoir surfer sur les interfaces que d'autres auront programmées, jouer à des jeux que d'autres auront conçus, mais ils seront incapables de concevoir, de programmer une interface, un jeu ou quoi que ce soit d'autre : ils seront de purs consommateurs dans le monde que d'autres auront programmé, que d'autres sauront maîtriser.

Il est temps de lever la feuille de vigne et de constater la situation réelle : notre économie, notre société ne pourront progresser que si nous savons maîtriser leur informatisation, et pour cela il faut que nous soyons très compétents en informatique.

D'ici deux à trois ans « numérique » sera ringard. Il sera devenu branché de dire « informatique ». Prenez de l'avance, anticipez sur la mode de demain ! Ne restez donc pas à la traîne...

5 commentaires:

  1. Merci ! J'ai découvert depuis peu votre publication par l'intermédiaire de votre lecture de Simondon, et je partage cette vision, en tant qu'informaticien-par-nécessité et sociologue-par-accident, de l'effort d'invention sémantique des médias pour cacher la nature technique et la dimension sociale des "technologies numériques". Elles semblent ainsi n'être à la portée que des experts dont on doit accepter, comme au temps des mass-médias, la "vision" ou quelque barbarisme froid proféré sans sourciller.

    Une immense part de la technologie est politique. Et ceux qui veulent la laisser aux mains des "experts" volent la futurité du peuple. Seule reste la vision paranoïaque et répressive d'une élite psychopathe, terrifiée par l'idée même de démocratie, comme l'étaient les esclavagistes de la prétendue vengeance de leurs esclaves affranchis. L'abolition passée, les lynchages ne concernaient pas des hordes de marrons brutalisant les élites contrairement à l'image du film "Django" de Tarantino. C'est un fait que la plupart des gens ne partage pas la misanthropie des élites ni leur vision totalitaire ou absolutiste. La course de la technologie doit être retenue et contrôlée, tout comme l'ambition politique, afin de maintenir, ou plutôt rétablir, un équilibre social propice au développement sain des peuples de la Terre.

    RépondreSupprimer
  2. Philippe, Merci pour cet article.
    En effet, la langue française dispose de ce mot fantastique qui désigne dans leur globalité les technologies de l'information. Hélas, ce mot n'a pas été récupéré par nos amis d'outre atlantique qui ont pourtant été massivement développeurs de ces technologies. Et leur désignation de ce monde s'est appuyé sur le concept fondateur de l'informatique: le codage binaire, sous forme de "digits", qui a conduit à l'expression "Digital", traduite en français par "Numérique".
    Ne cherchons pas trop loin : l'usage du mot "numérique" ne fait que souligner l'omniprésence des inventions états-uniennes dans notre vieux monde. Et sur ce coup-là, je doute qu'"informatique" puisse revenir à la mode.

    RépondreSupprimer
  3. Cela fait longtemps que je suis un simple "consommateur" de vos billets, et d'ailleurs je vous en remercie chaleureusement. Je suis de formation informatique, et j'ai effectivement dû tout au long de ma carrière faire face à ces déviances marketing que représentent ces écarts verbaux, créées bien souvent pour préserver un pouvoir.

    Ainsi, avant le numérique, et après l'informatique, on a parlé de "Nouvelles Technologies de l'Information". Est-ce à dire qu'elles seraient devenus "vielles". Celui qui a inventé cette terminologie n'a pas du se poser cette question, quant à savoir à partir de quand ce qui était ainsi désigné comme nouveau finirait inéluctablement par être à minima un peu moins nouveau quelques années auparavant - pour ne pas dire "vieux".

    Las, face aux facéties verbales de mes interlocuteurs, il a fallu que moi aussi je me mette à parler cette "novlangue". A partir de là, ma carrière à commencer à s'en sentir mieux. Tant mieux pour elle, tant pis pour la société.

    Je sais pour ma part que depuis toujours un certain nombre d'informaticiens ont cette fibre du développement des usages, de la finalité de leur action et l'impact sur la société encore bien au-delà des médias. Le fait est que pendant que l'on invente de nouveaux vocables, le temps que la société (re)mette derrière ceux-ci ce qu'ils contiennent, on ne développe pas la société de l'information et les projets informatiques dérivent, coûtent mais rapportent peu - notion de coût à ne pas prendre seulement sur le plan financier - etc.

    Le fait est donc aussi que ces informaticiens qui ont la dite fibre, finissent soit par aller voir ailleurs, soit par se démotiver. C'est ainsi que nos talents partent.

    Il est temps, grand temps, de se réveiller.


    RépondreSupprimer
    Réponses
    1. Bien sûr vous avez raison, numérique est intrinsèquement contenu dans informatique puisque l'informatique est fondée sur codage binaire donc numérique. "Numérique" c'est le choix technique, "informatique" si je comprends bien, c'est tout ce que l'homme avec fait a fait avec ce choix.

      Mais votre agacement me semble personnellement déplacé. Ce que le sens, devenu commun, de numérique traduit, c'est le passage au "pair à pair", à cette idée que les automates doivent, pour être efficaces, communiquer entre eux et ainsi décupler leurs capacités sur la base d'un échange, par essence informel (sans contrat) : je t'envoie mes paquets, tu m'envoies les tiens. Grâce à cela on a eu Internet et par voie de conséquence ...le numérique.
      Le schéma initial, celui, pour faire vite, d'IBM et ses concurrents (et des réseaux télécoms) n'était pas celui-là. Il y a donc eu à moment donné une véritable bifurcation, une "révolution" si l'on veut, qui nous a conduit là où on en est. Que l'on désigne ceci par un mot nouveau (numérique remplaçant informatique) ne me paraît pas choquant, bien au contraire, même si le mot est peut être mal choisi.
      Le risque de garder "informatique" c'est faire croire qu'on est passé par transformation continue de cette "informatique" de grand papa, pilotée par les constructeurs de machines à une "informatique" de Google ou d'Apple, pilotée par d'autres entreprises.
      Or les architectures pair à pair offrent justement la possibilité de ne pas "s'en laisser compter'" (ce qui étymologiquement nous renvoie au numérique.

      Supprimer
    2. L'Internet n'est pas la seule "bifurcation" : pensez au passage du "mainframe" au terminal dans les années 70, à l'arrivée des PC, des interfaces graphiques et des réseaux locaux dans les années 80, de la bureautique communicante dans les années 90... Et le potentiel de l'informatique continue à se déployer. Comme vous le dites, le mot "numérique" est peut-être mal choisi pour désigner un tel phénomène.

      Supprimer