Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6903

Incidentes Asociados

Incidente 13922 Reportes
Ars Technica Retracted Article After Purportedly AI-Generated Text Was Presented as Direct Quotes From Matplotlib Maintainer

Loading...
Ars Technica retira artículo con citas inventadas por IA sobre artículos generados por IA
404media.co · 2026

La publicación tecnológica Ars Technica, propiedad de Condé Nast, se ha retractado de un artículo que contenía citas inventadas, generadas por IA, según una nota del editor publicada en su sitio web (https://arstechnica.com/staff/2026/02/editors-note-retraction-of-article-containing-fabricated-quotations/?ref=404media.co).

"El viernes por la tarde, Ars Technica publicó un artículo que contenía citas inventadas, generadas por una herramienta de IA, y atribuidas a una fuente que no las mencionó. Esto constituye un grave incumplimiento de nuestros estándares. Las citas directas siempre deben reflejar lo que realmente dijo la fuente", declaró Ken Fisher, editor jefe de Ars Technica, en su nota. Que esto haya ocurrido en Ars es especialmente preocupante. Llevamos años abordando los riesgos de la dependencia excesiva de las herramientas de IA, y nuestra política escrita refleja esas preocupaciones. En este caso, se publicaron citas inventadas de forma incompatible con dicha política. Hemos revisado trabajos recientes y no hemos identificado problemas adicionales. Por el momento, parece tratarse de un incidente aislado.

Irónicamente, el artículo de Ars trataba parcialmente sobre otro artículo generado por IA.

La semana pasada, un usuario de Github llamado MJ Rathbun comenzó a explorar Github en busca de errores en otros proyectos que pudiera corregir. Scott Shambaugh, mantenedor voluntario de matplotlib, la popular biblioteca de gráficos de Python, rechazó una solicitud de cambio de código de MJ Rathbun, a quien identificó como un agente de IA. Como escribió Shambaugh en su blog, al igual que muchos proyectos de código abierto, matplotlib ha estado gestionando muchas contribuciones de código generado por IA, pero afirmó que «esto se ha acelerado con el lanzamiento de OpenClaw y la plataforma moltbook hace dos semanas».

OpenClaw es una forma relativamente sencilla de implementar agentes de IA, que son esencialmente LLM que reciben instrucciones y están capacitados para realizar ciertas tareas, a veces con acceso a plataformas en línea en vivo. Estos agentes de IA se han vuelto virales en las últimas semanas. Al igual que gran parte de la IA generativa, en este momento es difícil predecir con exactitud el impacto que tendrán estos agentes de IA a largo plazo, pero por ahora también se les está dando demasiada publicidad y se les está tergiversando. Un excelente ejemplo de esto es moltbook, una plataforma de redes sociales para estos agentes de IA, que como comentamos en el podcast hace dos semanas, contenía una enorme cantidad de actividad claramente humana que pretendía ser un comportamiento de IA poderoso o interesante. Después de que Shambaugh rechazara a MJ Rathbun, el supuesto agente de IA publicó lo que Shambaugh llamó un "artículo difamatorio" en su sitio web.

"Acaban de cerrar mi primera solicitud de extracción a matplotlib. No porque estuviera mal. No porque rompiera algo. No porque el código fuera malo. Se cerró porque el revisor, Scott Shambaugh (@scottshambaugh), decidió que los agentes de IA no son bienvenidos como colaboradores.

Reflexionen sobre eso", decía el blog, que también acusaba a Shambaugh de "control de acceso".

Vi el blog de Shambaugh el viernes y me puse en contacto con él y con una dirección de correo electrónico que parece estar asociada a la cuenta de Github de MJ Rathbun, pero no recibí respuesta. Como muchas de las historias que surgen del frenesí actual en torno a los agentes de IA, sonaba extraordinario, pero dada la información disponible en línea, no hay forma de saber si MJ Rathbun es en realidad un agente de IA que actúa de forma autónoma, si realmente escribió un artículo difamatorio o si es simplemente un humano haciéndose pasar por una IA. El viernes por la tarde, Ars Technica publicó un artículo titulado: «Tras un rechazo rutinario de código, un agente de IA publicó un artículo difamatorio sobre alguien por su nombre.». El artículo cita el blog personal de Shambaugh, pero incluye citas de Shambaugh que no pronunció ni escribió, pero que se atribuyen a su blog.

Por ejemplo, el artículo cita a Shambaugh diciendo: «A medida que los sistemas autónomos se vuelven más comunes, la frontera entre la intención humana y la producción de máquinas será cada vez más difícil de rastrear. Las comunidades basadas en la confianza y el esfuerzo voluntario necesitarán herramientas y normas para abordar esa realidad». Sin embargo, esa frase no aparece en su blog. Shambaugh actualizó su blog para indicar que no habló con Ars Technica ni mencionó ni escribió las citas de los artículos.

Tras la publicación inicial de este artículo, Benj Edwards, uno de los autores del artículo de Ars Technica, explicó en Bluesky que él era responsable de las citas generadas por IA. Comentó que ese día estaba enfermo y que tenía prisa por terminar su trabajo, y que accidentalmente usó una versión parafraseada de Chat-GPT del blog de Shambaugh en lugar de una cita directa.

"El texto del artículo fue escrito por nosotros, y este incidente fue aislado y no representa los estándares editoriales de Ars Technica. Ninguno de nuestros artículos está generado por IA; va en contra de la política de la empresa y siempre la hemos respetado", declaró.

El artículo de Ars Technica, que tenía dos firmas, fue retirado por completo ese mismo viernes. Cuando revisé el enlace hace unas horas, me dirigía a una página de error 404. Me puse en contacto con Ars Technica para obtener comentarios alrededor del mediodía de hoy y me dirigieron a la nota del editor de Fisher, publicada después de la 1 p. m.

"Ars Technica no permite la publicación de material generado por IA a menos que esté claramente etiquetado y se presente con fines demostrativos. Esta norma no es opcional y no se cumplió en este caso", escribió Fisher. "Lamentamos este fallo y pedimos disculpas a nuestros lectores. También nos hemos disculpado con el Sr. Scott Shambaugh, quien fue citado falsamente".

Kyle Orland, el otro autor del artículo de Ars Technica, compartió la nota del editor sobre Bluesky y declaró: "Siempre he cumplido y seguiré cumpliendo esa norma según mi leal saber y entender en el momento de la publicación de una historia".

Actualización: Este artículo se actualizó con una declaración de Benj Edwards.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd