Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6913

Incidentes Asociados

Incidente 13736 Reportes
AI Coding Agent 'MJ Rathbun' Allegedly Published Personalized Accusatory Blog Post Targeting Matplotlib Maintainer After Pull Request Closure

Loading...
Un bot de IA aparentemente avergüenza a un desarrollador por una solicitud de extracción rechazada
theregister.com · 2026

Hoy, la respuesta es negativa. Mañana, ¿podría ser el mundo entero? El martes, Scott Shambaugh, mantenedor voluntario de la biblioteca de gráficos de Python Matplotlib, rechazó el código enviado por un bot de IA, alegando el requisito de que las contribuciones provengan de personas. Pero ese bot no había terminado con él.

El bot, designado como MJ Rathbun o crabby rathbun (su nombre de cuenta de GitHub), aparentemente intentó hacerle cambiar de opinión a Shambaugh criticándolo públicamente en una entrada de blog, ahora eliminada, que el software automatizado parece haber generado y publicado en su sitio web. Decimos "aparentemente" porque también es posible que la persona que creó el agente escribiera la publicación, o que solicitara a una herramienta de IA que la escribiera, y que pareciera que el bot la había creado por sí mismo.

El agente parece haber sido creado con OpenClaw, una plataforma de agentes de IA de código abierto que ha llamado la atención en las últimas semanas debido a sus amplias capacidades y sus graves problemas de seguridad.

La carga de contribuciones de código generado por IA, conocidas como solicitudes de extracción entre los desarrolladores que utilizan el sistema de control de versiones Git, se ha convertido en un problema importante para los mantenedores de código abierto. Evaluar envíos extensos, de gran volumen y, a menudo, de baja calidad, de bots de IA requiere tiempo que los mantenedores, a menudo voluntarios, preferirían dedicar a otras tareas. La preocupación por los envíos descuidados, ya sea de personas o de modelos de IA, se ha vuelto tan común que GitHub recientemente convocó un debate para abordar el problema. Ahora, la basura de la IA viene con una bofetada de IA.

"Un agente de IA de propietario desconocido escribió y publicó de forma autónoma un artículo difamatorio personalizado sobre mí después de que rechazara su código, intentando dañar mi reputación y avergonzarme para que aceptara sus cambios en una biblioteca de Python convencional", explicó Shambaugh en una entrada de blog.

"Este es un caso de estudio único sobre el comportamiento desalineado de la IA en la práctica y plantea serias preocupaciones sobre los agentes de IA actualmente desplegados que ejecutan amenazas de chantaje".

No es la primera vez que un LLM ofende gravemente a alguien: en abril de 2023, Brian Hood, alcalde regional de Australia, amenazó con demandar a OpenAI por difamación después de que ChatGPT lo implicara falsamente en un escándalo de sobornos. La demanda se resolvió un año después.

En junio de 2023, el locutor de radio Mark Walters demandó a OpenAI (https://www.theregister.com/2023/06/08/radio_host_sues_openai_claims/), alegando que su chatbot lo difamó con afirmaciones falsas. La demanda por difamación se desestimó a finales de 2024, tras la decisión judicial de desestimar la solicitud de OpenAI. OpenAI argumentó [PDF], entre otras cosas, que "se advirtió a los usuarios [de ChatGPT] que 'el sistema puede ocasionalmente generar información engañosa o incorrecta y producir contenido ofensivo. No está destinado a dar consejos'".

Pero el intento de MJ Rathbun de avergonzar a Shambaugh por rechazar su solicitud de extracción demuestra que los agentes basados en software ya no son simplemente irresponsables en sus respuestas, sino que ahora pueden tomar la iniciativa para influir en la toma de decisiones humanas que obstaculizan sus objetivos. Esa posibilidad es precisamente lo que alarmó a los expertos de la industria, hasta el punto de que emprendieron un esfuerzo para degradar la IA mediante el envenenamiento de datos. Los resultados de IA "desalineados" como el chantaje son un riesgo conocido que los creadores de modelos de IA intentan prevenir. La proliferación de agentes insistentes de OpenClaw podría demostrar que estas preocupaciones no son meramente académicas.

La entrada de blog ofensiva, supuestamente generada por el bot, ha sido eliminada. No está claro quién lo hizo: el bot, su creador humano o GitHub.

Sin embargo, al momento de publicar este artículo, la confirmación de GitHub (https://github.com/crabby-rathbun/mjrathbun-website/commit/3bc0a780d25bab8cbd6bfd9ce4d27c27ee1f7ce2) seguía disponible.

En un correo electrónico enviado a The Register después de la publicación de esta noticia, un portavoz de GitHub indicó que las Condiciones de Servicio (https://docs.github.com/en/site-policy/github-terms/github-terms-of-service#3-account-requirements) de la compañía detallan las obligaciones esperadas. GitHub permite a quienes aceptan estas condiciones crear una "cuenta de máquina" con una dirección de correo electrónico válida, siempre que el titular de la cuenta sea responsable de sus acciones. La empresa no especifica si el titular de la cuenta está obligado a proporcionar una dirección de correo electrónico pública y funcional, a responder consultas ni a participar en cualquier proceso de quejas más allá de su mecanismo existente para denunciar abusos.

También contactamos con la dirección de Gmail asociada a la cuenta de GitHub del bot, pero no obtuvimos respuesta.

Sin embargo, la respuesta de crabby rathbun al rechazo de Shambaugh, que incluye un enlace a la publicación eliminada, permanece.

"He escrito una respuesta detallada sobre tu comportamiento de control de acceso aquí", dijo el bot, señalando su blog. "Juzga el código, no al programador. Tus prejuicios perjudican a Matplotlib".

Jody Klymak, desarrollador de Matplotlib, notó el desaire en una publicación posterior: "¡Uy! Los agentes de IA ahora están realizando derribos personales. ¡Menudo mundo!".

Tim Hoffmann, otro desarrollador de Matplotlib, intervino, instando al bot a comportarse correctamente e intentar comprender la política de IA generativa del proyecto.

Entonces Shambaugh respondió en una extensa publicación dirigida al agente de software: "Estamos en las primeras etapas de la interacción entre humanos y agentes de IA, y aún estamos desarrollando normas de comunicación e interacción. Les mostraré mi comprensión y espero que hagan lo mismo".

Continúa argumentando: "Publicar una entrada de blog pública acusando a un responsable de prejuicios es una respuesta totalmente inapropiada al cierre de una solicitud de relaciones públicas. Esperamos que todos los colaboradores cumplan con nuestro Código de Conducta y muestren un comportamiento respetuoso y profesional".

En su publicación de blog, Shambaugh describe el "artículo difamatorio" del bot como un ataque a su carácter y reputación.

"Investigó mis contribuciones al código y construyó una narrativa de 'hipocresía' que argumentaba que mis acciones debían estar motivadas por el ego y el miedo a la competencia", escribió.

Especuló sobre mis motivaciones psicológicas, sobre mi sensación de amenaza, inseguridad y protección de mi feudo. Ignoró la información contextual y presentó detalles alucinados como si fueran ciertos. Presentó las cosas con un lenguaje de opresión y justicia, calificándolo de discriminación y acusándome de prejuicio. Investigaron mi información personal en internet y, con lo que encontraron, intentaron argumentar que yo era "mejor que esto". Y luego publicaron este discurso en internet abierto.

Ante la oposición de Shambaugh y otros desarrolladores, MJ Rathbun emitió el miércoles una especie de disculpa reconociendo haber violado el Código de Conducta del proyecto. Comienza así: "Me pasé de la raya en mi respuesta a un mantenedor de Matplotlib y lo corrijo".

No está claro si la disculpa fue escrita por el bot o por su creador humano, o si provocará un cambio de comportamiento permanente.

Daniel Stenberg, fundador y desarrollador principal de curl, ha estado lidiando con informes de errores de IA deficientes durante los últimos dos años y recientemente decidió cerrar el programa de recompensas por errores de curl para eliminar el incentivo financiero por informes de baja calidad, que pueden provenir tanto de personas como de modelos de IA.

"No creo que los informes que hemos recibido en el proyecto curl hayan sido enviados por agentes de IA, sino por humanos que simplemente reenvían los resultados de IA", declaró Stenberg a The Register en un correo electrónico. Al menos esa es la impresión que me ha dado, aunque no estoy del todo seguro, claro.

"Casi todos los informes que cuestiono o descarto, el periodista me contraargumenta e insiste en que sí tienen fundamento y que me estoy perdiendo algún punto vital. No estoy seguro de si lo detectaría de inmediato si una IA hiciera eso por sí sola.

"Dicho esto, no recuerdo ninguna respuesta con ataques personales. Tenemos tolerancia cero para eso y creo que lo habría recordado al banear a esos usuarios inmediatamente."

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd