samedi 5 mars 2022

Les métavers et la dynamique de l’informatisation

Le métavers apparaît comme une nouveauté radicale, susceptible de faire émerger un monde de possibilités étranges et de dangers inédits. L’idée en avait été éveillée par des romans et des films évocateurs : Brazil (1985) de Terry Gilliam a décrit un monde soumis à un pouvoir policier manipulateur qui, comme celui du 1984 d’Orwell, écrase les esprits par la force de sa propagande ; les héros du Ready Player One (2018) de Steven Spielberg, qui vivent dans un monde réel désagréable, se réfugient dans un oasis virtuel. Les annonces de Mark Zuckerberg et la transformation de Facebook en Meta semblent annoncer la réalisation de cet oasis, et apporter ainsi le risque d’une évasion généralisée dans l’imaginaire.

Quelle est la place de cet imaginaire dans notre esprit ? Le cerveau humain filtre et classe ce qu’il perçoit à travers une grille sélective, formée par l’éducation et par l’expérience et qui impose sa structure à la représentation mentale de tout ce qui existe « réellement et de fait1 ». Les contes, romans et spectacles présentent à ce même cerveau un monde imaginaire dont l’expérience, se combinant à celle du réel, la modifie, l’enrichit, la déforme aussi et peut même chez certains la supplanter : l’évidence sensorielle du métavers apportera à ce phénomène une puissance inédite.

Le monde virtuel en 3D auquel on accède en portant des « lunettes » semble sensationnel la première fois mais il faut relativiser sa nouveauté. Il est depuis longtemps possible de représenter le monde en 3D sur l’écran 2D de l’ordinateur : on peut alors à l’aide de la souris faire pivoter les objets en tout sens et, de façon paradoxale, on les « voit » mieux ainsi que dans l’espace réel où il ne serait pas possible de les manier de la sorte. L’Internet des objets, qui associe à chaque objet matériel une identité et une représentation informatiques, contribue lui aussi à la fusion du virtuel et du réel.

Ce que le monde virtuel du métavers apporte de nouveau, c’est l’immersion dans une représentation visuelle, comme si l’on avait plongé à travers l’écran. Les sensations sont naturellement alors beaucoup plus fortes, en outre il sera possible pour chacun de s’incarner avec un avatar dans ce spectacle, d’y agir, d’y produire et échanger des objets virtuels ou des objets réels qu’ils représentent.

Outre les dimensions physique et psychique d’un changement de la perception du monde, le métavers a donc une dimension financière : cela ne doit pas surprendre car c’est le cas de tout ce que l’informatisation a apporté. A chacune des étapes de son évolution sont apparus des modèles d’affaires qui utilisaient des instruments nouveaux : que l’on pense à l’automatisation des opérations répétitives, à la rentabilisation de services gratuits par la publicité, au commerce en ligne, à la gestion électronique des comptes, à celle de la compensation interbancaire, à la monnaie virtuelle, etc.

Le métavers fera naître lui aussi de nouveaux modèles d’affaire et donc de nouveaux acteurs, de nouveaux produits, de nouveaux instruments financiers. La blockchain et les jetons ou « tokens » (en particulier les NFT, « non fungibles tokens2 ») lui procureront la sécurité, au moins en principe, et feront émerger une « économie décentralisée » qui promet de nouvelles formes de richesse et d’efficacité3.

Comme beaucoup de ceux qu’a fait émerger l’informatique le métavers est donc un être hybride qui conjugue une dimension physique à une dimension financière et fait converger plusieurs innovations techniques. Son apparition est un des épisodes de la dynamique de l’informatisation qui impulse, depuis les années 1970, l’histoire des sociétés et des économies.

Examiner cette dynamique permet de percevoir ce que ses épisodes ont en commun, et que celui du métavers partage, sur les plans culturel, psychologique et sociologique. On rencontre avec le métavers les mêmes interrogations que lors des épisodes précédents, les mêmes inquiétudes, les mêmes réticences, le même risque d’illusion, le même besoin aussi d’une innovation législative, réglementaire et juridique.

L’étape actuelle de l’informatisation semble une évidence avec les ordinateurs sur tous les bureaux, les tablettes et smartphones entre toutes les mains, l’usage quotidien et banalisé de la ressource informatique : on est tenté, malgré l’expérience, de faire comme s’il en avait toujours été ainsi (certains ne peuvent pas concevoir que l’on ait pu vivre autrefois sans smartphone) et comme si la situation présente était destinée à durer indéfiniment. Considérer la dynamique de l’informatisation permet de percevoir le ressort qu’elle tend dans notre situation, d’anticiper les grandes lignes de son évolution, d’évaluer les possibilités et les dangers qu’elle apportera.

*     *

L’informatisation de l’entreprise

L’informatique, se le rappelle-t-on ? C’était dans les années 1960 de gros ordinateurs « style IBM » enfermés dans un local climatisé, alimentés en cartes perforées et qui produisaient des « listings ». Ils servaient à des tâches administratives : la comptabilité, la paie, la gestion des stocks, parfois la statistique. Cette informatique était l’affaire de gens excessivement sérieux : les vendeurs d’ordinateurs portaient costume et cravate, les utilisateurs n’étaient pas autorisés à approcher la machine. Il est difficile aujourd’hui de se remémorer cette situation…

Elle a déjà posé des problèmes que le régulateur a dû trancher. Pour éviter les abus d’un monopole, il a contraint en 1956 IBM à publier une information sur la maintenance de ses machines : leurs interfaces étant devenues visibles, d’autres entreprises ont pu produire des équipements « compatibles IBM ». En 1969 le régulateur a imposé à IBM de vendre séparément les machines et le logiciel, ce qui donna naissance à une industrie du logiciel et de l’ingénierie.

Cependant des marginaux4 revendiquaient le droit de comprendre comment l’ordinateur fonctionne, d’y accéder, de s’en servir en temps réel, de modifier la façon dont on l’utilisait : au MIT ils ont fabriqué de fausses clés pour accéder de nuit et en fraude à la salle machine. Ces pionniers passionnés, qui programmaient jour et nuit et négligeaient leur hygiène, suscitaient le scandale et s’attiraient la réprobation.

Avant eux l’ordinateur était une grosse machine sans écran, sans traitement de texte, sans tableur, sans réseau. Ils ont inventé les procédés qui ont introduit ces perfectionnements : la souris en 1968, les fenêtres et menus déroulants en 1974, des systèmes d’exploitation et des langages (Unix en 1969, C en 1972). Ils ont cherché à mettre l’ordinateur à la disposition de tout le monde d’abord en disséminant des terminaux, puis en mettant au point le micro-ordinateur.

Ces « hackers » n’avaient pas le sens de la propriété, ils se copiaient les uns les autres : Bill Gates y a mis un terme en inaugurant en 1976 le marché du logiciel compilé (donc illisible) pour micro-ordinateur5. L’esprit des pionniers perdure cependant dans le monde de l’« open source » dont la production s’organise en structures de travail collaboratif animées par un « dictateur bienveillant6 ». Les grandes entreprises du logiciel elles-mêmes ont fini par en tirer parti.

Jusqu’au début des années 1970 l’informatisation n’est qu’une étape dans l’industrialisation du travail de bureau qui avait été lancée dans les années 1880 à Chicago avec la machine à écrire, la machine à calculer et les méthodes de classement des documents sur papier. Des « applications » indépendantes les unes des autres tiraient parti de la mémoire de l’ordinateur et de la puissance de son processeur mais leur juxtaposition non coordonnée provoquait des incohérences.

La notion d’un « système d’information7 » est apparue lorsque l’on a cherché à surmonter les inconvénients qui en résultaient : selon la théorie qui a alors prévalu une organisation complexe doit être analysée en distinguant son utilisation du langage (système d’information), ses règles de conduite et de comportement (système de décision) et les procédés que met en œuvre son action (système de production). Ces trois systèmes possèdent chacun sa propre structure et communiquent entre eux tandis que les diverses applications doivent s’articuler autour de « bases de données » qui assurent la cohérence des informations. Cette conception a favorisé les informaticiens dans la négociation budgétaire car elle attirait l’attention des dirigeants sur l’informatique. En France ceux des plus grandes entreprises ont en 1971 créé le CIGREF (Club informatique des grandes entreprises françaises).

Au début des années 1980 apparaît cependant une troisième approche, celle des « processus8 » qui organisent l’articulation des tâches concourant à l’élaboration d’un produit, à sa commercialisation et à la relation avec son client. Dans un processus l’information, la production et la gestion s’entrelacent intimement, contrairement à la première définition des systèmes d’information qui les juxtaposait : l’informatisation a dès lors pénétré l’ensemble des activités de l’entreprise.

On découvrit alors progressivement qu’elle tend à automatiser toutes les tâches répétitives, qu’elles soient physiques ou mentales. Il en est résulté une transformation elle aussi progressive du travail, de l’emploi, des compétences : la production étant devenue la reproduction automatique d’un prototype (c’est manifestement le cas pour les logiciels et la microélectronique, c’est aussi le cas des autres produits à proportion de leur informatisation), la main-d’œuvre fait place à un cerveau-d’œuvre dont le travail se concentre sur la conception, l’ingénierie et les services. Certains ont craint alors que l’automatisation de la production n’entraîne une disparition de l’emploi mais c’est l’inverse qui s’est manifesté9.

Cette automatisation a eu des conséquences sur la structure des marchés : le coût marginal de la production étant inférieur à son coût moyen, les marchés ne peuvent plus obéir à la concurrence parfaite. Le régime de la concurrence monopolistique s’est alors imposé, mais sans que les régulateurs en prennent conscience : continuant de promouvoir la concurrence parfaite, ils refusent des fusions potentiellement efficaces mais qui pourraient donner naissance à des entreprises qu’ils jugent trop puissantes.

La concurrence monopolistique faisant tourner à vive allure le moteur de l’innovation, des entreprises jusqu’alors dominantes ont soudain perdu leur suprématie : c’est le cas de Nokia, de BlackBerry, de Worldcom, etc. Les monopoles sont temporaires et il est faux que « the winner takes all », sinon pendant un délai.

*     *

Chacune des étapes de l’informatisation a cependant laissé des traces dans les systèmes d’information (le « legacy ») car les entreprises ne reconstruisent pas volontiers ce qui a été bâti à grand frais : des applications indépendantes voisinent avec d’autres qui s’articulent autour de bases de données, et aussi avec des processus informatisés. Les systèmes d’information sont donc aujourd’hui rarement des constructions logiques : ce sont plutôt des empilages de solutions hétéroclites que la DSI fait fonctionner de son mieux et tant bien que mal. Il en résulte une tension permanente entre les informaticiens et les autres salariés car ces derniers ne conçoivent pas les difficultés pratiques et quotidiennes que rencontre le fonctionnement de la plateforme informatique, ni les délais qui sont nécessaires pour les surmonter.

Le micro-ordinateur va cependant transformer la pratique et la sociologie de l’informatisation. Le tout premier datant de 1973, il se répand dans les entreprises à partir de 1982. Les informaticiens de stricte obédience lui sont naturellement hostiles car la centralisation de l’informatique sur un gros ordinateur leur semble garantir une cohérence et aussi peut-être parce qu’ils sont contrariés de voir que « n’importe qui » puisse utiliser un ordinateur. Ils n’accepteront de prendre le micro-ordinateur au sérieux que lorsqu’IBM lui-même sortira le PC en 1985.

La norme des réseaux Ethernet, publiée en 1983, a permis de mettre les micro-ordinateurs d’un même établissement en réseau ; l’Internet, amorcé en 1969, s’impose par la suite dans les années 1990 et assure une communication à distance. Le micro-ordinateur en réseau devient alors l’interface standard du salarié avec une ressource informatique, composée de logiciels et de documents et qui bénéficie de la puissance des processeurs, de la fidélité des mémoires électroniques, du débit des réseaux et de la commodité du Web (inventé en 1989, de plus en plus largement utilisé à partir de 1995).

Cela ne s’est pas passé tout seul. Lorsque l’Arpanet a en 1969 réalisé la première mise en réseau des ordinateurs la réaction d’IBM a été négative et AT&T n’a pas volontiers accepté que son réseau soit utilisé par un autre service que la téléphonie. Le protocole TCP/IP de l’Internet, qualifié de « bricolage d’universitaires », sera jugé moins efficace que les circuits virtuels qui, eux, permettent de taxer le trafic. Après que la messagerie a été inventée en 1973 il a semblé pendant un temps scandaleux qu’elle puisse être utilisée pour faire communiquer des personnes et non des travaux professionnels. Steve Jobs, qui souhaitait confiner l’utilisateur et son Macintosh dans une bulle douillette et fermée, a longtemps refusé qu’on l’équipe d’une prise réseau : seule la nécessité d’un partage de l’imprimante locale a pu le faire changer d’avis.

Mais tout change, non sans poser des problèmes. On découvre à l’usage que la messagerie, si commode pourtant, est un tel amplificateur de l’agressivité (celui qui reçoit un message désinvolte se croit insulté et riposte) que certaines entreprises l’interdiront. Le tableur, outil des plus commodes pour le calcul, sera une source permanente d’erreurs qui contaminent les données10.

La « bureautique communicante » facilite le partage des documents et le travail collaboratif à distance mais ces innovations entrent en conflit avec l’organisation hiérarchique qui interdit ou entrave la libre communication de documents entre les personnes et jusqu’à l’usage de la messagerie : il en résulte des inefficacités et des disputes.

Les risques alors encourus sont toujours présents. Les tableurs contaminent encore les systèmes d’information, la messagerie est mal utilisée (abus des listes de diffusion, agressivité, spam, phishing, etc.), beaucoup d’organisations restent quoique l’on dise hostiles au travail collaboratif et à l’interdisciplinarité, les systèmes d’information sont hétéroclites, etc. : aujourd’hui encore peu d’entreprises sont raisonnablement informatisées et beaucoup d’entre elles négligent leur « cybersécurité ».

Enfin le fossé d’incompréhension entre les informaticiens et les utilisateurs s’est creusé. Comme l’ergonomie du micro-ordinateur permet à ces derniers de pouvoir l’utiliser après un court apprentissage ils peuvent croire que l’informatique, au fond, c’est tout simple : ils ne perçoivent ni la complexité du système d’information, ni la nature de la ressource informatique à laquelle leur « ordinateur » accède et qui seule permet au système d’information de fonctionner.

La dynamique de l’informatisation rencontre donc dans les entreprises des obstacles pratiques, culturels ou sociologiques. En outre elle comporte un délai avant la mise en œuvre des innovations, dont la chronologie diffère de celle de l’utilisation. Il était dès 1957 possible d’utiliser quatre terminaux en grappe sur l’IBM 305, mais les entreprises sont restées jusque dans les années 1970 au couple « cartes perforées et listings ». Il était dès le début des années 1980 possible d’installer des réseaux de micro-ordinateurs, mais de nombreuses entreprises ont continué jusque dans les années 1990 à utiliser des terminaux passifs. Ces délais s’expliquent : la première version d’une innovation est coûteuse et demande des mises au point, son utilisation implique des changements de l’organisation et une transformation des habitudes.

Pendant que l’entreprise s’informatisait ses salariés ont appris à utiliser l’ordinateur en réseau, à se servir de la messagerie, à transférer des documents, etc. Le prix des micro-ordinateurs diminuant rapidement les ménages ont bientôt pu en équiper leur domicile : dans les années 1990 l’informatisation s’est progressivement étendue à la société tout entière, comme l’avaient prévu Pierre Nora et Alain Minc en 1978.

*     *

L’informatisation de la société

Le Web est inventé en 1989, des blogs apparaissent en 1998, Google lance son moteur de recherche cette même année pour faire face à l’abondance des documents disponibles. Cette abondance est telle que certains craignent que « trop d’information tue l’information », mais pourquoi le Web pourrait-il « tuer l’information » alors que les livres et les journaux, dont la quantité excède largement les capacités d’un lecteur, n’y étaient pas parvenus ? Le risque, nous le verrons, se trouve dans la qualité plus que dans la quantité de l’information.

Amazon est né en 1994, le commerce électronique démarre en 1997, Facebook est lancé en 2004 : ces fameux GAFAM sont promis à une carrière fulgurante grâce à l’Internet, au Web et à l’ingéniosité de leurs créateurs.

Il ne faut pas croire que tout cela ait coulé de source. Les opérateurs télécom, qui auraient pu prendre une place éminente dans le commerce électronique, s’y sont refusés : leurs habitudes et leur culture s’opposant à l’adoption d’un nouveau modèle d’affaires, seuls des nouveaux venus pouvaient le créer. Le scepticisme était d’ailleurs de mise : Amazon, qui investissait massivement dans son informatique, a fait des pertes pendant plusieurs années et les sceptiques en tiraient un argument.

Des phénomènes que les économistes se plaisent à analyser se sont manifestés alors : l’économie des plateformes, les marchés bifaces, les questions concernant la propriété des données, les effets de la robotisation sur l’emploi, etc. Mais leur corporation, attachée au modèle de l’équilibre général et à la concurrence parfaite, ignore le cerveau-d’œuvre et la concurrence monopolistique : alors que ce sont là les phénomènes les plus profonds de l’économie présente, ils sont ainsi cachés par le chatoiement de phénomènes superficiels.

Le téléphone mobile, qui s’est répandu dans les années 1990, est devenu dans les années 2000 un ordinateur qui, avec l’iPhone en 2007, a atteint un haut degré de perfectionnement et acquis une multiplicité de fonctions. La ressource informatique, naturellement ubiquitaire puisque sur l’Internet l’emplacement d’un serveur est indifférent, a atteint alors l’ubiquité absolue : chacun portant un téléphone mobile sur soi le corps humain lui-même a été informatisé (et sera donc éventuellement localisé et espionné : le possible nouveau s’accompagne toujours de nouveaux dangers).

Chacun pouvant s’exprimer librement en publiant un blog sur le Web et, bientôt, en s’exprimant sur des réseaux sociaux comme Linkedin (2002), Facebook (2004), Twitter (2006), en publiant des vidéos sur YouTube (2005), des podcasts sur iTunes d’Apple (2005), en contribuant à Wikipédia (2001), etc., on a cru pouvoir annoncer le déploiement d’une civilisation. Il s’est produit en effet, puisque ces vecteurs ont été mis au service de l’information scientifique et de la culture, mais il y avait des risques et ils se sont manifestés.

Lorsque l’informatisation restait cantonnée aux entreprises, le risque n’était que celui d’une inefficacité due à la maladresse, sauf bien sûr s’il s’agissait d’une entreprise criminelle. Lorsque chacun a été invité à s’exprimer sur l’Internet, lorsque la publication écrite n’a plus été soumise au filtrage même approximatif par des éditeurs et rédacteurs en chef des journaux, les « idées » qui s’exprimaient auparavant au Café du commerce, où l’on peut impunément souhaiter « une bonne guerre » et affirmer qu’il faut « tout foutre en l’air », ont acquis une virulence inédite et contagieuse.

Des individus par jeu ou par perversité, des institutions pour promouvoir leurs intérêts, ont systématisé une désinformation qui certes a des précédents – la propagande, la publicité – mais n’avait jamais eu une audience aussi universelle. Il en est résulté, avec l’émergence de la « post-vérité » des « faits alternatifs » et de fantasmes comme celui qu’a promu sur le darknet un influenceur comme Qanon (2017), une pandémie de délire11 et la falsification de la démocratie par une manipulation individualisée des cerveaux capable de fausser le résultat d’un vote.

La puissance, la commodité et l’opacité de l’informatique ont également offert des outils à des prédateurs et à leurs entreprises criminelles12 : les profits du crime, de la corruption, de la fraude fiscale et de l’abus de biens sociaux sont opportunément blanchis par les procédés rémunérateurs auxquels concourent des banques, des cabinets d’avocats et des États, après quoi les malfaiteurs peuvent s’emparer des entreprises légales. Certes la criminalité avait toujours existé mais la théorie économique avait jusqu’alors cru pouvoir en faire abstraction. L’économie présente a par contre deux versants consacrés l’un à la production, l’autre à la destruction, mis en relation par le double mécanisme du blanchiment et du noircissement (ce dernier nécessaire lorsqu’une entreprise veut pouvoir pratiquer la corruption).

Alors que la société informatisée possède, avec l’automatisation que permet l’informatique, l’instrument économique et pratique le plus efficace de l’histoire, elle est ainsi minée par une désinformation qui dégrade les cerveaux humains ainsi que par une prédation qui altère le système productif, ces deux phénomènes conspirant pour promouvoir le régime de purs rapports de force qui fait émerger une forme ultra-moderne de la féodalité. Ces dangers, dont on ignore le caractère systémique (car on les croit anecdotiques), sont beaucoup plus réels que ceux qu’évoquent des slogans que l’on énonce complaisamment, « l’automatisation tue l’emploi », « trop d’information tue l’information », « l’informatique déshumanise », etc.

Le législateur, le régulateur et le juge doivent acquérir des compétences nouvelles afin de posséder le discernement qui leur permettra d’assurer leur mission dans le monde nouveau que l’informatisation fait émerger pour le meilleur et pour le pire.

*     *

Vers les métavers

Nous avons fait apparaître la dynamique de l’informatisation : les forces qui la poussent en avant, les obstacles culturels et institutionnels qu’elle rencontre, enfin ses conséquences positives et négatives. Cette dynamique se manifeste par le ressort qui, tendu dans la situation présente, la propulse vers une situation future. En prendre conscience permet d’anticiper dans les grandes lignes ce que sera cette situation nouvelle car des inventions et des innovations sont déjà là, attendant leur plein déploiement. Nous en avons groupé certaines au début de ce texte sous le nom de métavers : l’immersion dans l’espace virtuel, la blockchain, les NFT, l’Internet des objets, les modèles d’affaires de l’économie décentralisée, etc.

Cette perspective rencontre un scepticisme :
« Le métavers n’est pas possible, cela ne marchera jamais » ;
« Il nous abrutira complètement » ;
« Il ne changera pas grand chose dans la vie des humains » ;
« Il n’apportera rien au bien commun » ;
« Il ne contribuera en rien la réduction des émissions de CO2 » ;
« Les tycoons de la Silicon Valley veulent créer un monde dans lequel ils seront encore plus puissants et plus riches », etc.

Ce scepticisme est habituel et même normal devant une nouveauté donc on ne perçoit pas clairement les implications : qui aurait pu prévoir la diversité et l’utilité des applications que porte aujourd’hui un smartphone ? Le Minitel a longtemps été préféré en France à l’Internet, que certains auraient même voulu interdire ; les perspectives du commerce électronique ont longtemps été niées ; on a cru jusqu’en 1995 qu’il n’existait pas en France de marché pour le téléphone mobile, etc. En outre les risques qu’apporte réellement l’informatisation ont été ignorés tandis qu’on lui attribuait des dangers chimériques.

L’espace virtuel 3D du métavers peut élargir notre connaissance du monde (il permet par exemple de survoler le mont Saint-Michel, d’examiner son architecture intérieure, de visiter ses sous-sols, etc.), il pourra contribuer ainsi à l’action productive, il pourra aussi proposer une évasion dans des mondes imaginaires au risque de susciter une addiction. Il ne sera assurément pas dans l’histoire le premier terrain d’expression offert à la perversité, car elle s’est abondamment manifestée dans le livre et dans le spectacle, mais sa séduction risque d’être beaucoup plus puissante.

La blockchain offrira une sécurité formelle à l’économie décentralisée, les tokens élargiront l’espace offert aux transactions, mais rien ne garantit que cette sécurité, cet élargissement, obéiront aux exigences morales de la vie personnelle et aux exigences pratiques de la vie en société : on peut être certain que les prédateurs sauront tirer parti du métavers. Comme chacune des étapes de l’informatisation celle-ci exigera donc une hygiène : il faut une hygiène de l’utilisateur, qui doit savoir anticiper les conséquences de ses actes, doser sa consommation, résister à des séductions perverses. Il faut aussi une hygiène collective car la société doit se doter de lois, règlements, régulations et pouvoirs judiciaires aptes à contenir les abus et la prédation.

Cette hygiène, nous en sommes loin et peut-être faudrait-il mettre de l’ordre dans la maison avant de s’inquiéter des risques que le métavers présente : nous ne savons pas aujourd’hui maîtriser notre consommation individuelle du spectacle médiatique et des réseaux sociaux, y compris celle des jeunes (instruit par l’expérience, le législateur chinois limite à trois heures par semaine l’utilisation de l’ordinateur par les jeunes de moins de 18 ans13). Nos dirigeants possédant rarement l’intuition et l’énergie qui leur permettraient de faire bâtir des systèmes d’information efficaces, l’informatisation de nos entreprises et de nos institutions est généralement défectueuse. Dans la société entière enfin le combat contre la prédation occasionne de temps à autre des amendes révélatrices dont le total se chiffre en centaines de milliards d’euros, mais qui ne font qu’effleurer le phénomène.

Du point de vue économique le métavers bénéficiera de l’initiative des entreprises qui feront tout pour développer des modèles d’affaires profitables, et aussi de celle des nombreux acteurs de l’économie décentralisée. Les prédateurs étant vigilants et à l’affût, il leur offrira des opportunités dont ils s’empareront rapidement. De ce foisonnement résulteront des expériences très diverses, positives ou négatives, que l’on peut anticiper en partie aujourd’hui mais de façon générale et imprécise.

Il faut se tenir prêt à expérimenter le métavers et être attentif à ses effets de sorte qu’ils puissent alimenter, outre l’initiative des entreprises, celle du législateur, du régulateur et du juge. Pour que leur action puisse contenir la prédation et limiter les abus il faudra qu’ils aient acquis, à défaut d’une expertise technique qu’il ne convient pas d’exiger d’eux, l’intuition exacte du phénomène de l’informatisation que l’Institut de l’iconomie s’efforce de leur procurer.

___

1 Scipion du Pleix cité par Etienne Gilson, L’Être et l’Essence, Vrin, 1948, p. 14.

2 « Fungible : being of such a nature that one part of quantity may be replaced by another equal part of quantity in the safisfaction of an obligation (oil, wheat and lumber are fungible commodities) » (Merriam Webster’s Dictionnary). Est donc « non fungible » le jeton attaché à un objet qui possède, comme une œuvre d’art, une individualité irremplaçable.

3 Vincent Lorphelin et Christian Saint-Etienne, « Une stratégie française pour le métavers », Les Échos, 21 décembre 2021.

4 Steven Levy, Hackers, Delta Publishing 1994. Le mot « hacker » désignait alors ceux qui trouvaient des « good hacks », des astuces permettant de faire faire par l’ordinateur des choses nouvelles (de la musique, par exemple). Ce même mot désigne aujourd’hui des pirates informatiques : son sens a changé.

5 Bill Gates, « Open Letter to the Hobbyists », Computer Notes, 3 février 1976.

6 Steve Hamm, « Linus Torvald's benevolent dictatorship », Bloomberg Business Week, 17 août 2004.

7 Jacques Mélèse, L’analyse modulaire des systèmes de gestion, AMS, 1972.

8 Peter Keen, Shaping the Future, Harvard Business Shool Press, 1993.

9 Michel Volle, iconomie, Economica, 2014.

10 Markus Clermont, A Scalable Approach to Spreadsheet Visualization, Universität Klagenfurt, mars 2003.

11 Michel Volle, « Tradition, raison, science, imaginaire et délire », michelvolle.blogspot.com, 25 décembre 2021.

12 Michel Volle, Prédation et prédateurs, Economica, 2008.

13 Chris Buckley, « China Tightens Limits for Youn Online Gamers and Bans Shool Night Play », The New York Times, 30 août 2021.

1 commentaire:

  1. Merci pour ce texte Michel. Je le résume à ma sauce !! Le métavers est la continuité de ce que nous vivons avec l'informatisation depuis 1975 (bon c'est à la louche...je me risque à une date). ça offre (et offrira) des possibilités et aussi des dangers (comme la prédation aujourd'hui). Les développements seront faits par des entrepreneurs et la prédation par des faussaires. Nous allons expérimenter beaucoup de nouveautés et devront en tirer le bon du mauvais grâce à une hygiène de vie (limiter les dépendances, savoir éduquer les gens, savoir discerner le bon du mauvais etc..).
    Je comprends que tu vois le phénomène de Métavers comme important et qu'il ne faut pas le négliger !
    Bises
    Olivier

    RépondreSupprimer