Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5112

Incidentes Asociados

Incidente 10436 Reportes
Reddit Moderators Report Unauthorized AI Study Involving Fabricated Identities by Purported University of Zurich Researchers

Loading...
Un argumento a favor de experimentos de investigación éticos y transparentes en interés público
independenttechresearch.org · 2025

El 26 de abril, los moderadores de r/ChangeMyView, una comunidad de Reddit dedicada a comprender las perspectivas de otros, revelaron que investigadores académicos de la Universidad de Zúrich llevaron a cabo un experimento de IA a gran escala y no autorizado en su comunidad. Los investigadores habían utilizado bots de IA para suplantar secretamente la identidad de personas en experimentos de persuasión.

Curiosamente, este experimento se llevó a cabo sin el conocimiento ni el consentimiento de la comunidad de Reddit, y los bots no estaban etiquetados como IA. Los usuarios de Reddit estuvieron expuestos, sin saberlo, a contenido a veces engañoso generado por IA, diseñado para influir en sus opiniones, lo que generó importantes preocupaciones éticas y de transparencia.

Cuando los investigadores compartieron los resultados preliminares con la comunidad, los moderadores de r/ChangeMyView se pusieron en contacto con el comité de ética de los investigadores, preocupados. Cuando se les informó que el proyecto cumplía con los estándares éticos institucionales, los moderadores divulgaron el estudio a su comunidad, conmocionada e indignada. Reddit baneó las cuentas asociadas y emitió un comunicado condenando la actividad.

Este caso ha recibido fuertes críticas de la comunidad de investigación y ética tecnológica. Pone de relieve la creencia errónea de algunos investigadores de que las intenciones de interés público justifican ignorar las responsabilidades éticas de los investigadores hacia los participantes y el público.

Un llamado a la acción sobre la ética de los experimentos digitales

No cabe duda: este experimento fue poco ético. Los investigadores no actuaron correctamente con las personas que pudieron haber sido manipuladas por la IA; con los grupos marginados que la IA suplantó al tergiversarlos; con la comunidad r/ChangeMyView, al socavar su capacidad de servir como foro público para el debate ciudadano; y con la comunidad investigadora en general, al socavar la confianza pública en la ciencia.

Los investigadores deben defender las prácticas éticas, ya que las fallas éticas a menudo se utilizan como excusa para restringir el trabajo de interés público. Escándalos previos, como el estudio sobre el contagio emocional en Facebook y el trabajo de Cambridge Analytica, generaron temores sobre la manipulación mediante la experimentación. En respuesta, las empresas han expresado su temor a la investigación poco ética y la necesidad de proteger la privacidad de los usuarios al limitar la investigación de interés público y amenazar a los científicos, a pesar de experimentar con sus propios usuarios. Creemos que es probable que muchos más experimentos de IA generativa, poco éticos y disruptivos, se estén llevando a cabo actualmente por actores de la industria con incluso menos supervisión que los científicos. Como foro público donde los usuarios participan en debates profundos sobre millones de temas, Reddit ha sido durante mucho tiempo una fuente importante de investigación de interés público. Y las comunidades de Reddit llevan mucho tiempo colaborando con científicos en beneficios mutuos que amplían la comprensión de nuestro mundo. Para proteger las diversas y vibrantes comunidades de Reddit (incluso las más controvertidas), es imperativo que los investigadores tengan en cuenta la dimensión humana anticipando cómo su investigación podría perjudicar a individuos, grupos y comunidades.

Como miembros de la Coalición, solicitamos las siguientes acciones:

  1. Exhortamos a los comités de ética, a los consejos editoriales de revistas y a los revisores pares a que sean más vigilantes para defender la ética en un momento en que la investigación en IA generativa es relativamente reciente. Las nuevas tecnologías no invalidan los principios éticos vigentes. Si tiene preguntas o dudas, hemos recopilado una lista de recursos a continuación. También le invitamos a ponerse en contacto con quienes trabajamos a la vanguardia de la tecnología y la ética de la investigación: no tiene que hacerlo solo.

  2. Exhortamos a los reguladores y a la industria tecnológica a que apoyen la transparencia de los experimentos digitales realizados en el público. Las personas merecen saber cómo y cuándo nuestras vidas han sido influenciadas sistemáticamente, ya sean experimentos realizados por científicos, empresas o alguna persona con un amplio modelo lingüístico. Las disposiciones sobre transparencia en leyes como la Ley de Prohibición de la Manipulación de las Redes Sociales de Minnesota (https://www.techpolicy.press/experiments-are-the-best-kind-of-transparency/) podrían, de forma más general, ayudar a proteger al público de la investigación poco ética, a la vez que apoyan la ciencia beneficiosa.

Acerca del CITR

La Coalición para la Investigación Tecnológica Independiente es una red global que trabaja para garantizar que la investigación tecnológica sirva al bien común. La misión de la Coalición es promover, defender y sostener el derecho a estudiar éticamente el impacto de la tecnología en la sociedad.

Para obtener más información sobre la Coalición y su labor, lea nuestro documento fundacional (https://independenttechresearch.org/coalition-for-independent-technology-research-founding-document/) y nuestro manifiesto (https://independenttechresearch.org/manifesto-the-coalition-for-independent-technology-research/).

Recursos de los miembros de la Coalición sobre prácticas éticas de investigación en Reddit:

  • Antecedentes:

  • Cómo los científicos aprovechan al máximo Reddit

  • Remember the Human: Una revisión sistemática de las consideraciones éticas en la investigación de Reddit

  • Expectativas de los usuarios multiplataforma para la reutilización de datos de redes sociales

  • Nuevos enfoques para los datos de plataformas Investigación](https://netgainpartnership.org/events/2021/2/26/new-approaches-to-platform-data-research)

  • Guías:
  • Asociación para Investigadores de Internet: Investigación en Internet: Directrices Éticas 3.0

  • Herramienta de Ética de Datos PERVADE

  • Política de AskHistorians para Investigadores que usan r/AskHistorians en Investigación

  • Explorando la conciencia y el poder en la ciencia de datos: Un manifiesto para datos ubicuos y confiables Investigación](https://journals.sagepub.com/doi/full/10.1177/20539517211040759)

  • Mejores prácticas y ejemplos:
  • Hacia la moderación interseccional: Un modelo alternativo de moderación basado en el cuidado y el poder

  • Ética procedimental y sustantiva en el diseño de la ética de la investigación ... Sistemas

  • CivilServant: Experimentos comunitarios en gobernanza de plataformas

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd