Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5111

Incidentes Asociados

Incidente 10436 Reportes
Reddit Moderators Report Unauthorized AI Study Involving Fabricated Identities by Purported University of Zurich Researchers

La peor violación ética de la investigación en internet que he visto
theatlantic.com · 2025

Cuando Reddit se rebautizó como "el corazón de internet" hace un par de años, el eslogan pretendía evocar el carácter orgánico del sitio. En una era de redes sociales dominadas por algoritmos, Reddit se enorgullecía de estar gestionado por una comunidad que expresaba sus opiniones mediante votos positivos y negativos; en otras palabras, moldeado por personas reales.

Por eso, a principios de esta semana, cuando los miembros de un popular subreddit descubrieron que su comunidad había sido infiltrada por investigadores encubiertos que publicaban comentarios escritos por IA y los hacían pasar por pensamientos humanos, los redditors se indignaron, como era de esperar. Calificaron el experimento de "violador", "vergonzoso", "exasperante" y "muy perturbador". A medida que la reacción se intensificaba, los investigadores guardaron silencio, negándose a revelar su identidad o a responder preguntas sobre su metodología. La universidad que los emplea ha anunciado que está investigando. Mientras tanto, el director jurídico de Reddit, Ben Lee, escribió que la empresa pretende "garantizar que los investigadores rindan cuentas por sus faltas".

Al coro de desaprobación se unieron otros investigadores de internet, que condenaron lo que consideraron un experimento claramente poco ético. Amy Bruckman, profesora del Instituto Tecnológico de Georgia que ha estudiado comunidades en línea durante más de dos décadas, me dijo que el fiasco de Reddit es "la peor violación de la ética en la investigación en internet que he visto, sin duda". Es más, a ella y a otros les preocupa que el revuelo pueda socavar el trabajo de académicos que utilizan métodos más convencionales para estudiar un problema crucial: cómo la IA influye en la forma en que los humanos piensan y se relacionan.

Los investigadores, con sede en la Universidad de Zúrich, querían averiguar si las respuestas generadas por IA podían cambiar la opinión de las personas. Así que se dirigieron al acertadamente llamado subreddit r/changemyview, en el que los usuarios debaten importantes cuestiones sociales, junto con muchos temas triviales, y otorgan puntos a las publicaciones que los disuaden de su postura original. A lo largo de cuatro meses, los investigadores publicaron más de 1000 comentarios generados por IA sobre pitbulls (¿es la agresividad culpa de la raza o del dueño?), la crisis de la vivienda (¿es vivir con los padres la solución?) y los programas DEI (¿estaban destinados al fracaso?). Los comentaristas de la IA argumentaron que navegar por Reddit es una pérdida de tiempo y que la teoría conspirativa de la "demolición controlada" del 11-S tiene cierto fundamento. Y mientras ofrecían sus opiniones generadas por computadora, también compartieron sus historias. Uno afirmó ser consejero de trauma; otro se describió como víctima de estupro.

En cierto sentido, los comentarios de la IA parecen haber sido bastante efectivos. Cuando los investigadores pidieron a la IA que personalizara sus argumentos según los datos biográficos de un redditor, incluyendo género, edad e inclinaciones políticas (inferidos, cortesía de otro modelo de IA, a través del historial de publicaciones del redditor), un sorprendente número de opiniones pareció haber cambiado. Esos argumentos personalizados de la IA recibieron, en promedio, puntuaciones mucho más altas en el sistema de puntos del subreddit que casi todos los comentaristas humanos, según los hallazgos preliminares que los investigadores compartieron con los moderadores de Reddit y que posteriormente hicieron privados. (Este análisis, por supuesto, asume que nadie más en el subreddit usaba IA para refinar sus argumentos).

A los investigadores les costó más convencer a los redditors de que su estudio encubierto estaba justificado. Tras finalizar el experimento, contactaron a los moderadores del subreddit, revelaron su identidad y solicitaron informar al subreddit; es decir, anunciar a los miembros que, durante meses, habían sido participantes involuntarios de un experimento científico. "Les sorprendió bastante la reacción tan negativa que tuvimos al experimento", afirma un moderador, que pidió ser identificado por su nombre de usuario, LucidLeviathan, para proteger su privacidad. Según LucidLeviathan, los moderadores solicitaron a los investigadores que no publicaran un trabajo tan contaminado y que presentaran una disculpa. Los investigadores se negaron. Tras más de un mes de intercambios, los moderadores revelaron al resto del subreddit lo que habían descubierto sobre el experimento (sin revelar los nombres de los investigadores), dejando clara su desaprobación. Cuando los moderadores enviaron una queja a la Universidad de Zúrich, esta señaló en su respuesta que "el proyecto aporta información importante y los riesgos (por ejemplo, traumas, etc.) son mínimos", según un extracto publicado por los moderadores. En una declaración dirigida a mí, un portavoz de la universidad afirmó que el comité de ética había recibido notificación del estudio el mes pasado, había aconsejado a los investigadores que cumplieran con las normas del subreddit y "tenía la intención de adoptar un proceso de revisión más estricto en el futuro". Mientras tanto, los investigadores defendieron su enfoque en un comentario en Reddit, argumentando que "ninguno de los comentarios abogaba por posturas perjudiciales" y que cada comentario generado por IA era revisado por un miembro del equipo humano antes de ser publicado. (Envié un correo electrónico a una dirección anónima de los investigadores, publicada por los moderadores de Reddit, y recibí una respuesta que dirigía mis consultas a la universidad).

Quizás el aspecto más revelador de la defensa de los investigadores de Zúrich fue que, según ellos, el engaño era parte integral del estudio. El comité de ética de la Universidad de Zúrich —que puede ofrecer asesoramiento a los investigadores, pero, según la universidad, carece de la facultad de rechazar estudios que no cumplen con sus estándares— indicó a los investigadores, antes de que comenzaran a publicar, que «los participantes debían estar lo más informados posible», según el comunicado de la universidad que recibí. Sin embargo, los investigadores parecen creer que hacerlo habría arruinado el experimento. «Para comprobar éticamente el poder de persuasión de los LLM en escenarios realistas, era necesario un entorno inconsciente», ya que imita de forma más realista cómo responderían las personas a actores maliciosos no identificados en situaciones reales, escribieron los investigadores en uno de sus comentarios de Reddit.

Cómo es probable que respondan los humanos en tal escenario es un tema urgente y merecedor de investigación académica. En sus resultados preliminares, los investigadores concluyeron que los argumentos de la IA pueden ser «altamente persuasivos en contextos reales, superando todos los parámetros conocidos previamente de persuasión humana». (Dado que los investigadores finalmente acordaron esta semana no publicar un artículo sobre el experimento, la precisión de ese veredicto probablemente nunca se evaluará por completo, lo cual es en sí mismo una pena). La perspectiva de que algo que no la tiene te haga cambiar de opinión es profundamente inquietante. Ese superpoder de persuasión también podría emplearse con fines nefastos.

Aun así, los científicos no tienen que violar las normas de experimentación con seres humanos para evaluar la amenaza. «El hallazgo general de que la IA puede estar en el extremo superior de la capacidad de persuasión humana —más persuasiva que la mayoría de los humanos— concuerda con lo que han descubierto los experimentos de laboratorio», me dijo Christian Tarsney, investigador principal de la Universidad de Texas en Austin. En un experimento de laboratorio reciente, los participantes que creían en teorías de la conspiración conversaron voluntariamente con una IA; después de tres intercambios, aproximadamente una cuarta parte perdió la fe en sus creencias anteriores. Otro estudio descubrió que ChatGPT producía desinformación más persuasiva que los humanos, y que los participantes a los que se les pidió que distinguieran entre publicaciones reales y las escritas por IA no pudieron hacerlo eficazmente.

Giovanni Spitale, autor principal de ese estudio, también es investigador de la Universidad de Zúrich y ha estado en contacto con uno de los investigadores detrás del experimento de IA en Reddit, quien le pidió que no revelara su identidad. "Estamos recibiendo docenas de amenazas de muerte", le escribió el investigador en un mensaje que Spitale compartió conmigo. "Por favor, guarde el secreto por la seguridad de mi familia".

Una posible razón por la que la reacción ha sido tan fuerte es que, en una plataforma tan unida como Reddit, la traición es un problema muy profundo. "Uno de los pilares de esa comunidad es la confianza mutua", me dijo Spitale; es parte de la razón por la que se opone a experimentar con los redditors sin su conocimiento. Varios académicos con los que hablé sobre este último dilema ético lo compararon —desfavorablemente— con el infame estudio sobre contagio emocional de Facebook. Durante una semana en 2012, Facebook modificó la sección de noticias de los usuarios para ver si ver contenido más o menos positivo modificaba sus hábitos de publicación. (Lo hizo, un poco). Casey Fiesler, profesora asociada de la Universidad de Colorado en Boulder, que estudia la ética y las comunidades en línea, me comentó que el estudio sobre contagio emocional palidece en comparación con lo que hicieron los investigadores de Zúrich. "La gente se molestó por eso, pero no de la misma manera que lo está esta comunidad de Reddit", me dijo. "Esto se sintió mucho más personal". La reacción probablemente también se relaciona con la inquietante idea de que ChatGPT sabe qué botones tocar en nuestras mentes. Una cosa es ser engañado por investigadores humanos de Facebook con dudosos estándares éticos, y otra muy distinta ser engañado por un chatbot disfrazado. Leí docenas de comentarios de IA, y aunque no todos eran brillantes, la mayoría parecían razonables y genuinos. Presentaban muchos buenos argumentos, y asentí más de una vez. Como advierten los investigadores de Zúrich, sin herramientas de detección más robustas, los bots de IA podrían "integrarse sin problemas en las comunidades en línea", suponiendo que no lo hayan hecho ya.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 9427ecd