Incidents associés
Le magazine technologique Ars Technica, propriété de Condé Nast, a retiré un article contenant des citations fabriquées de toutes pièces et générées par une intelligence artificielle, comme l'indique une note de la rédaction publiée sur son site web.
« Vendredi après-midi, Ars Technica a publié un article contenant des citations fabriquées de toutes pièces, générées par un outil d'IA et attribuées à une source qui ne les avait pas prononcées. Il s'agit d'un manquement grave à nos normes. Les citations directes doivent toujours refléter fidèlement les propos de la source », a déclaré Ken Fisher, rédacteur en chef d'Ars Technica, dans sa note. « Le fait que cela se soit produit chez Ars est particulièrement préoccupant. Nous abordons depuis des années les risques liés à une dépendance excessive aux outils d'IA, et notre politique écrite reflète ces préoccupations. Dans ce cas précis, des citations fabriquées ont été publiées d'une manière non conforme à cette politique. Nous avons examiné nos travaux récents et n'avons identifié aucun autre problème. Pour l'instant, il semble s'agir d'un incident isolé. »
Ironie du sort, l'article d'Ars portait en partie sur un autre article généré par une IA.
La semaine dernière, un utilisateur de GitHub nommé MJ Rathbun a commencé à parcourir la plateforme à la recherche de bogues dans d'autres projets qu'il pourrait corriger. Scott Shambaugh, un mainteneur bénévole de matplotlib, la bibliothèque de visualisation de données très populaire de Python, a refusé une demande de modification de code de la part de MJ Rathbun, qu'il a identifié comme étant un agent d'IA. Comme l'a écrit Shambaugh sur son blog, à l'instar de nombreux projets open source, Matplotlib a dû gérer un grand nombre de contributions de code généré par l'IA. Il a toutefois précisé que « ce phénomène s'est accéléré avec la sortie d'OpenClaw et de la plateforme Moltbook il y a deux semaines ».
OpenClaw offre une solution relativement simple pour déployer des agents d'IA, qui sont essentiellement des modèles logiques à longue portée (LLM) recevant des instructions et capables d'effectuer certaines tâches, parfois avec un accès à des plateformes en ligne. Ces agents d'IA ont connu un succès fulgurant ces dernières semaines. Comme pour une grande partie de l'IA générative, il est difficile, à ce stade, de prédire avec exactitude leur impact à long terme. Pour l'instant, ils font l'objet d'un engouement excessif et d'une représentation erronée. Un exemple flagrant est Moltbook, une plateforme de médias sociaux pour ces agents d'IA, qui, comme nous l'avons évoqué dans le podcast il y a deux semaines, contenait une quantité considérable d'activités manifestement humaines simulant un comportement d'IA puissant ou intéressant.
Après le rejet de MJ Rathbun par Shambaugh, l'agent d'IA présumé a publié sur son site web ce que Shambaugh a qualifié de « discours à charge ».
« Ma première pull request à matplotlib vient d'être fermée. Non pas parce qu'elle était erronée, ni parce qu'elle cassait quoi que ce soit, ni même parce que le code était mauvais. Elle a été fermée parce que le relecteur, Scott Shambaugh (@scottshambaugh), a décidé que les agents d'IA ne sont pas les bienvenus comme contributeurs.
Réfléchissez-y », pouvait-on lire sur le blog, qui accusait également Shambaugh de « contrôle d'accès ».
J'ai vu le blog de Shambaugh vendredi et j'ai tenté de le contacter, ainsi qu'une adresse e-mail qui semble être associée au compte GitHub de MJ Rathbun, mais je n'ai pas eu de réponse. Comme beaucoup d'histoires issues de la frénésie actuelle autour des agents d'IA, cela paraissait extraordinaire, mais compte tenu des informations disponibles en ligne, impossible de savoir si MJ Rathbun est réellement un agent d'IA agissant de manière autonome, s'il a réellement écrit un article à charge, ou s'il s'agit simplement d'un humain se faisant passer pour une IA.
Vendredi après-midi, Ars Technica a publié un article intitulé : « Après un rejet de code de routine, un agent d'IA a publié un article à charge contre une personne nommément citée. ». L'article cite le blog personnel de Shambaugh, mais lui attribue des propos qu'il n'a ni tenus ni écrits.
Par exemple, l'article lui attribue la phrase suivante : « À mesure que les systèmes autonomes se généralisent, la frontière entre l'intention humaine et la production de la machine deviendra plus difficile à tracer. Les communautés fondées sur la confiance et le bénévolat auront besoin d'outils et de normes pour faire face à cette réalité. » Or, cette phrase n'apparaît pas sur son blog. Shambaugh a mis à jour son blog pour préciser qu'il n'avait pas parlé à Ars Technica et qu'il n'était ni l'auteur ni le commentateur des citations publiées dans l'article.
Après la première publication de cet article, Benj Edwards, l'un des auteurs de l'article d'Ars Technica, a expliqué sur Bluesky qu'il était responsable des citations générées par IA. Il a déclaré qu'il était malade ce jour-là et pressé de terminer son travail, et qu'il avait utilisé par erreur une version paraphrasée par Chat-GPT du blog de Shambaugh au lieu d'une citation directe.
« Le texte de l'article a été rédigé par nos soins, et cet incident est isolé et ne reflète en rien les normes éditoriales d'Ars Technica. Aucun de nos articles n'est généré par IA ; c'est contraire à la politique de l'entreprise et nous l'avons toujours respectée », a-t-il affirmé.
L'article d'Ars Technica, signé par deux auteurs, a été retiré définitivement plus tard ce vendredi-là. Lorsque j'ai vérifié le lien il y a quelques heures, il renvoyait vers une page 404. J'ai contacté Ars Technica pour obtenir des commentaires vers midi aujourd'hui et on m'a renvoyé vers la note de la rédaction de Fisher, publiée après 13h.
« Ars Technica n'autorise pas la publication de contenu généré par IA, sauf s'il est clairement identifié comme tel et présenté à titre de démonstration. Cette règle est impérative et n'a pas été respectée ici », a écrit Fisher. « Nous regrettons cet oubli et présentons nos excuses à nos lecteurs. Nous avons également présenté nos excuses à M. Scott Shambaugh, dont les propos ont été mal interprétés. »
Kyle Orland, l'autre auteur de l'article d'Ars Technica, a partagé la note de la rédaction sur Bluesky et a déclaré : « J'ai toujours respecté et respecterai toujours cette règle, dans la mesure du possible au moment de la publication d'un article. »
Mise à jour : Cet article a été mis à jour avec une déclaration de Benj Edwards.