Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5099

Incidentes Asociados

Incidente 10436 Reportes
Reddit Moderators Report Unauthorized AI Study Involving Fabricated Identities by Purported University of Zurich Researchers

Experimento secreto de inteligencia artificial en Reddit acusado de violaciones éticas
theweek.com · 2025

Reddit respondió el 28 de abril a la noticia de que un grupo de investigadores había realizado un experimento secreto con chatbots de inteligencia artificial en uno de sus foros más populares. Las acciones de los participantes en el experimento han suscitado dudas sobre si el engaño está justificado en la investigación con seres humanos.

Infiltración de IA

Un equipo de investigadores anónimos de la Universidad de Zúrich realizó un experimento no autorizado de varios meses de duración con usuarios de Reddit en el subreddit r/changemyview (CMV). Para ello, desplegaron docenas de bots de IA (https://theweek.com/tech/ai-bots-internet-data) impulsados por Modelos de Lenguaje Grandes (LLM) para participar en debates sobre temas controvertidos (https://theweek.com/elon-musk/1022182/elon-musks-most-controversial-moments). El subreddit invita a las personas a compartir sus puntos de vista, lo que fomenta el diálogo entre quienes tienen diferentes perspectivas.

El equipo utilizó más de una docena de cuentas gestionadas por bots de IA para generar más de 1700 comentarios en el foro. En algunos casos, los bots afirmaron ser "sobrevivientes de violación, trabajar con pacientes con traumas o ser personas negras que se oponían al movimiento Black Lives Matter", según 404 Media. Los investigadores utilizaron otro recopilador de datos de IA para analizar el historial de publicaciones de las personas e identificar información personal que pudiera mejorar la eficacia de las respuestas de los bots, como su edad, raza, género, ubicación e ideas políticas.

Ninguno de los usuarios de Reddit con los que se realizó el experimento fue informado del mismo ni dio su consentimiento. Los investigadores tampoco notificaron a los moderadores del subreddit, a pesar de que las reglas del foro exigen la divulgación de las publicaciones generadas por IA. En marzo, los moderadores recibieron un mensaje de los investigadores que divulgaban el tema. El equipo defendió su estudio y la "importancia social de este tema", afirmando que era "crucial realizar un estudio de este tipo, incluso si eso implicaba desobedecer las normas". Tras la divulgación, los moderadores de Reddit presentaron una queja ética ante la Universidad de Zúrich, "solicitando que la investigación no se publique, que los investigadores se enfrenten a medidas disciplinarias y que se emita una disculpa pública", según informó Mashable. Los moderadores y los usuarios de Reddit expresaron su "profunda decepción por la falta de consentimiento informado, un principio fundamental de cualquier investigación con sujetos humanos".

Reddit planea presentar "demandas legales formales" por lo que el principal abogado de la compañía calificó como un "experimento inapropiado y altamente antiético". Lo que hizo este equipo de la Universidad de Zúrich fue "profundamente incorrecto, tanto a nivel moral como legal", declaró Ben Lee, director jurídico de Reddit, en una publicación en el foro.

Académicos responden al dilema ético

El experimento ha recibido críticas de otros académicos, quienes también plantearon inquietudes éticas sobre las acciones de los investigadores. El experimento es "una de las peores violaciones a la ética de la investigación que he visto", declaró Casey Fiesler, científico de la información de la Universidad de Colorado (https://theweek.com/tag/colorado), en Bluesky (https://bsky.app/profile/cfiesler.bsky.social/post/3lnqrpz3qas2r). Manipular a personas en comunidades en línea mediante engaños sin consentimiento no es una actividad de bajo riesgo y, como lo demuestra el discurso posterior en Reddit, ha causado daños.

El experimento dañó la integridad del propio foro CMV, afirmó Sarah Gilbert, directora de investigación del Laboratorio de Ciudadanos y Tecnología de la Universidad de Cornell. El subreddit CMV ha sido un "espacio público importante para que la gente participe en debates, aprenda cosas nuevas, cuestione sus suposiciones e incluso cambie de opinión", dijo en Bluesky. "¿Confiarán las personas en que no están interactuando con bots?" Y si no lo hacen, "¿puede la comunidad cumplir su misión?". En una época en la que se lanzan tantas críticas contra las empresas tecnológicas por no respetar la autonomía de las personas, es especialmente importante que los investigadores se exijan estándares más altos, declaró Carissa Véliz, profesora de ética de la Universidad de Oxford, a New Scientist. "Y en este caso, estos investigadores no lo hicieron". El estudio se basó en la manipulación y el engaño con sujetos de investigación sin su consentimiento, añadió. "Parece injustificado".

"El engaño puede estar bien en la investigación, pero no estoy seguro de que este caso fuera razonable", declaró Matt Hodgkinson, del Directorio de Revistas de Acceso Abierto, a New Scientist. Resulta irónico que los investigadores "tuvieran que mentir al LLM para afirmar que los participantes habían dado su consentimiento", dijo. "¿Tienen los chatbots una ética más sólida que la de las universidades?"

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf