Si vous ne pensez pas que le lancement précipité des chatbots IA par Big Tech a de très fortes chances de dégrader l'écosystème d'information du Web, considérez ce qui suit :
À l'heure actuelle,* si vous demandez au chatbot Bing de Microsoft si le chatbot Bard de Google a été arrêté, il dit oui, citant comme preuve un [article de presse](https://www.windowscentral.com/software-apps/google-bard -dit-il-a-déjà-été-fermé-dans-une-erreur-évidente) qui traite d'un tweet dans lequel un utilisateur a demandé à Bard quand il serait fermé et Bard a dit qu'il l'avait déjà fait, citant lui-même un comment de Hacker News dans lequel quelqu'un blaguait à propos de ce qui se passait, et quelqu'un d'autre a utilisé ChatGPT pour écrire de fausses nouvelles sur l'événement.
(*Je dis "en ce moment" parce qu'entre le début et la fin de l'écriture de cette histoire, Bing a changé sa réponse et répond maintenant correctement que Bard est toujours en vie. Vous pouvez interpréter cela comme montrant que ces systèmes sont, au moins, réparables ou qu'ils sont si infiniment malléables qu'il est même impossible de signaler systématiquement leurs erreurs.)
Mais si lire tout ce qui vous a fait mal à la tête, cela devrait être le cas – et à plus d'un titre.
Ce que nous avons ici est un signe avant-coureur que nous trébuchons dans un jeu massif de téléphone de désinformation sur l'IA, dans lequel les chatbots sont incapables d'évaluer les sources d'information fiables, de mal interpréter les histoires sur eux-mêmes et de déformer leurs propres capacités. Dans ce cas, tout a commencé à cause d'un seul commentaire de blague sur Hacker News. Imaginez ce que vous pourriez faire si vous vouliez que ces systèmes échouent.
C'est une situation risible mais avec des conséquences potentiellement graves. Étant donné l'incapacité des modèles de langage d'IA à trier de manière fiable les faits de la fiction, leur lancement en ligne menace de libérer une traînée pourrie de désinformation et de méfiance sur le Web, un miasme impossible à cartographier complètement ou à démystifier avec autorité. Tout cela parce que Microsoft, Google et OpenAI ont décidé que la part de marché est plus importante que la sécurité.
Ces entreprises peuvent mettre autant de clauses de non-responsabilité qu'elles le souhaitent sur leurs chatbots - nous disant qu'il s'agit d'"expériences", de "collaborations" et [certainement pas de moteurs de recherche](https://www.theverge.com/23649897/google-bard -chatbot-search-engine) - mais c'est une défense fragile. Nous savons comment les gens utilisent ces systèmes, et nous avons déjà vu comment ils propagent la désinformation, qu'il s'agisse d'inventer de nouvelles histoires qui n'ont jamais été écrites ou de parler de livres qui n'existent pas. Et maintenant, ils citent aussi les erreurs des autres.