Description: Des chercheurs prétendument affiliés à l'Université de Zurich auraient déployé des commentaires non divulgués générés par l'IA sur la plateforme r/ChangeMyView de Reddit afin d'étudier la persuasion en falsifiant prétendument des identités telles que celles de victimes d'agressions sexuelles et de minorités raciales. L'expérience aurait impliqué un profilage démographique non autorisé, des manipulations émotionnelles et des violations des règles du subreddit et de la plateforme. Les chercheurs auraient dérogé à leur protocole approuvé sans nouvelle surveillance éthique.
Editor Notes: Timeline notes: Reports indicate that the unauthorized AI persuasion experiment on Reddit's r/ChangeMyView subreddit was conducted over approximately four months. Although exact start and end dates have not been confirmed, evidence suggests that the activity likely took place between late 2024 and early 2025, concluding shortly before the moderators publicly disclosed the experiment in late April 2025. The researchers reportedly made approximately 1,783 AI-generated comments during this period. The duration and scale of the operation are included here to provide additional context but remain based on external reporting and moderator disclosures.
Entités
Voir toutes les entitésAlleged: Unspecified large language model developers developed an AI system deployed by University of Zurich researchers, which harmed Reddit users on r/ChangeMyView subreddit.
Système d'IA présumé impliqué: Unspecified large language models
Statistiques d'incidents
ID
1043
Nombre de rapports
2
Date de l'incident
2025-04-26
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
L'équipe de modération CMV doit informer la communauté CMV d'une expérience non autorisée menée par des chercheurs de l'Université de Zurich sur des utilisateurs de CMV. Cette expérience a utilisé des commentaires générés par l'IA afin d'ét…
Une équipe de chercheurs, se disant issus de l'Université de Zurich, a mené une expérience « non autorisée » à grande échelle. Ils ont déployé secrètement des robots dotés d'IA dans un subreddit de débat populaire appelé r/changemyview. L'o…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents