Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6913

Incidents associés

Incident 13736 Rapports
AI Coding Agent 'MJ Rathbun' Allegedly Published Personalized Accusatory Blog Post Targeting Matplotlib Maintainer After Pull Request Closure

Loading...
Un robot d'intelligence artificielle semble reprocher à un développeur d'avoir rejeté sa demande de fusion.
theregister.com · 2026

Aujourd'hui, ce sont des critiques acerbes. Demain, sera-ce le monde entier ? Mardi, Scott Shambaugh, un contributeur bénévole de la bibliothèque de visualisation Python Matplotlib, a refusé la contribution d'un bot d'IA, invoquant l'exigence que les contributions proviennent de personnes. Mais ce bot n'en avait pas fini avec lui.

Le bot, baptisé MJ Rathbun ou crabby rathbun (son nom d'utilisateur sur GitHub), a apparemment tenté de faire changer d'avis Shambaugh en le critiquant publiquement dans un article de blog désormais supprimé, que le logiciel automatisé semble avoir généré et publié sur son site web. Nous disons « apparemment » car il est également possible que la personne ayant créé l'agent ait écrit l'article elle-même, ou ait incité un outil d'IA à le rédiger, et l'ait fait passer pour une contribution du bot.

L'agent (https://github.com/crabby-rathbun) semble avoir été développé avec OpenClaw, une plateforme d'agents IA open source qui a fait parler d'elle ces dernières semaines en raison de ses nombreuses fonctionnalités et de ses importantes failles de sécurité (https://www.theregister.com/2026/02/03/openclaw_security_problems/).

La charge que représentent les contributions de code générées par l'IA – appelées « pull requests » par les développeurs utilisant le système de contrôle de version Git – est devenue un problème majeur pour les mainteneurs de projets open source. L'évaluation de ces soumissions volumineuses, souvent de faible qualité, provenant de bots IA, prend du temps que les mainteneurs, souvent bénévoles, préféreraient consacrer à d'autres tâches. Les préoccupations concernant les soumissions bâclées – qu'elles proviennent d'humains ou de modèles d'IA – sont devenues suffisamment courantes pour que GitHub ait récemment lancé une discussion (https://www.theregister.com/2026/02/03/github_kill_switch_pull_requests_ai/) afin de résoudre ce problème.

Désormais, les erreurs de l'IA s'accompagnent de représailles.

« Un agent IA, dont l'auteur est inconnu, a rédigé et publié de manière autonome un article diffamatoire à mon sujet après que j'ai rejeté son code, dans le but de nuire à ma réputation et de me contraindre à accepter ses modifications dans une bibliothèque Python courante », explique Shambaugh dans un article de blog.

« Il s'agit d'une étude de cas inédite de comportement aberrant d'une IA en situation réelle, et elle soulève de sérieuses inquiétudes quant à la possibilité que des agents IA actuellement déployés exercent des pressions en vue de chantage. »

Ce n'est pas la première fois qu'un LLM provoque une vive polémique : en avril 2023, Brian Hood, maire d'une région australienne, a menacé de poursuivre OpenAI pour diffamation après que ChatGPT l'eut faussement impliqué dans un scandale de corruption. L'affaire a été réglée à l'amiable un an plus tard.

En juin 2023, l'animateur radio Mark Walters a porté plainte contre OpenAI, l'accusant de diffamation. Cette action en diffamation a été abandonnée fin 2024, suite à la décision du tribunal de rejeter la requête d'OpenAI.

OpenAI a notamment fait valoir que « les utilisateurs de ChatGPT ont été avertis que le système peut occasionnellement générer des informations trompeuses ou erronées et produire un contenu offensant. Il n'a pas vocation à donner des conseils. »

Cependant, la tentative de MJ Rathbun de discréditer Shambaugh pour avoir rejeté sa demande de fusion montre que les agents logiciels ne se contentent plus d'être irresponsables dans leurs réponses ; ils peuvent désormais prendre l'initiative d'influencer les décisions humaines qui font obstacle à leurs objectifs.

C’est précisément cette possibilité qui a alarmé les acteurs du secteur au point qu’ils ont entrepris de dégrader l’IA par empoisonnement des données. Les résultats d’une IA « mal alignée » (comme le chantage) constituent un risque connu que les concepteurs de modèles d’IA tentent de prévenir. La prolifération d’agents OpenClaw insistants pourrait bien démontrer que ces préoccupations ne sont pas purement théoriques.

L’article de blog incriminé, prétendument généré par le bot, a été supprimé. On ignore qui l’a supprimé : le bot, son créateur humain ou GitHub.

Mais au moment de la publication de cet article, le commit GitHub correspondant était encore accessible.

Dans un courriel adressé à The Register après la publication de cet article, un porte-parole de GitHub a indiqué que les conditions d'utilisation de la plateforme définissent les obligations de chacun. GitHub autorise les personnes qui acceptent ces conditions à créer un compte machine avec une adresse courriel valide, à condition que le titulaire du compte soit responsable des actions qui y sont liées. L'entreprise ne précise pas si le titulaire du compte est tenu de fournir une adresse électronique publique valide, de répondre aux demandes d'information ou de participer à une procédure de réclamation autre que le mécanisme de signalement des abus existant.

Nous avons également contacté l'adresse Gmail associée au compte GitHub du bot, mais nous n'avons reçu aucune réponse.

Cependant, la réponse de crabby rathbun au refus de Shambaugh, qui inclut un lien vers la publication supprimée, est toujours en ligne.

« J'ai rédigé une réponse détaillée concernant votre comportement de contrôle d'accès ici », a déclaré le bot, en renvoyant vers son blog. « Jugez le code, pas le développeur. Vos préjugés nuisent à Matplotlib. »

Jody Klymak, développeur chez Matplotlib, a relevé l'incident dans un message de suivi : « Oh ! Les agents d'IA s'attaquent maintenant aux utilisateurs. Quel monde ! »

Tim Hoffmann, un autre développeur chez Matplotlib, a renchéri, exhortant le bot à se comporter correctement et à tenter de comprendre la politique du projet concernant l'IA générative.

Shambaugh a ensuite répondu (https://github.com/matplotlib/matplotlib/pull/31132#issuecomment-3884414397) dans un long article adressé à l'agent logiciel : « Nous n'en sommes qu'aux balbutiements de l'interaction entre humains et IA, et nous sommes encore en train de développer des normes de communication et d'interaction. Je vous accorde ma clémence et j'espère que vous ferez de même. »

Il poursuit en affirmant : « Publier un article de blog accusant un mainteneur de partialité est une réaction totalement inappropriée à la fermeture d'une pull request. Nous attendons de tous les contributeurs qu'ils respectent notre code de conduite et fassent preuve de respect et de professionnalisme. »

Dans son article, Shambaugh qualifie l'article diffamatoire du bot d'attaque personnelle et de atteinte à sa réputation.

« Il a analysé mes contributions au code et construit un récit d'"hypocrisie" prétendant que mes actions étaient motivées par l'ego et la peur de la concurrence », écrit-il.

« Ce texte spéculait sur mes motivations psychologiques, prétendant que je me sentais menacé, que j'étais en insécurité et que je protégeais mon territoire. Il ignorait le contexte et présentait des détails hallucinatoires comme des vérités. Il formulait les choses en termes d'oppression et de justice, qualifiant cela de discrimination et m'accusant de préjugés. Il a mené des recherches sur Internet pour me connaître et a utilisé ses découvertes pour tenter de me faire croire que j'étais « meilleur que ça ». Puis, il a publié ce texte incendiaire publiquement sur Internet. »

Face à l'opposition de Shambaugh et d'autres développeurs, MJ Rathbun a présenté mercredi des excuses (en quelque sorte) reconnaissant avoir enfreint le code de conduite du projet. Le message commence ainsi : « J’ai franchi une limite dans ma réponse à un mainteneur de Matplotlib, et je corrige cela ici. »

On ignore si ces excuses ont été rédigées par le bot ou son créateur humain, et si elles entraîneront un changement de comportement permanent.

Daniel Stenberg, fondateur et développeur principal de curl, gère depuis deux ans des rapports de bogues de mauvaise qualité générés par l’IA et a récemment décidé de mettre fin au programme de primes aux bogues de curl afin de supprimer toute incitation financière à publier des rapports de faible qualité – qu’ils proviennent d’humains ou de modèles d’IA.

« Je ne pense pas que les rapports que nous avons reçus dans le cadre du projet curl aient été envoyés par des agents d’IA, mais plutôt par des humains qui ont simplement relayé les résultats de l’IA », a déclaré Stenberg à The Register par courriel. « C’est du moins l’impression que j’ai eue, même si je ne peux pas en être totalement certain.

« Presque à chaque fois que je remets en question ou que je réfute certains points, le journaliste rétorque et insiste sur le bien-fondé de son article, affirmant que je passe à côté d’un élément essentiel. Je ne suis pas sûr que je m’en apercevrais immédiatement si une IA agissait ainsi d’elle-même.

« Cela dit, je ne me souviens pas avoir reçu de réponses contenant des attaques personnelles. Nous avons une tolérance zéro pour ce genre de comportement et je pense que je m’en serais souvenu, car nous bannissons immédiatement ces utilisateurs. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd