Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5099

Incidents associés

Incident 10436 Rapports
Reddit Moderators Report Unauthorized AI Study Involving Fabricated Identities by Purported University of Zurich Researchers

Une expérience secrète d'IA sur Reddit accusée de violations éthiques
theweek.com · 2025

Reddit a réagi le 28 avril à l'annonce qu'un groupe de chercheurs avait mené une expérience secrète utilisant des chatbots d'intelligence artificielle sur l'un de ses forums les plus populaires. Les actions des personnes impliquées dans cette expérience ont soulevé la question de la justification de la tromperie lors de recherches sur des sujets humains.

Infiltration d'IA

Une équipe de chercheurs anonymes de l'Université de Zurich a mené une expérience non autorisée de plusieurs mois sur des utilisateurs de Reddit dans le subreddit r/changemyview (CMV). Ils ont déployé des dizaines de bots d'IA alimentés par des modèles de langage étendus (LLM) pour engager des débats sur des sujets controversés. Le subreddit invite les participants à partager leurs points de vue, suscitant ainsi des échanges entre ceux qui partagent des points de vue différents.

L'équipe a utilisé plus d'une douzaine de comptes gérés par des robots d'IA pour générer plus de 1 700 commentaires sur le forum. Dans certains cas, les robots ont affirmé être des « victimes de viol, travailler avec des patients traumatisés ou être des personnes noires opposées au mouvement Black Lives Matter », a déclaré 404 Media. Les chercheurs ont utilisé un autre outil de collecte de données basé sur l'IA pour analyser l'historique des publications des utilisateurs et identifier les informations personnelles susceptibles d'améliorer l'efficacité des réponses des robots, telles que « leur âge, leur origine ethnique, leur sexe, leur localisation et leurs convictions politiques ».

Aucun des utilisateurs de Reddit ayant fait l'objet de l'expérimentation n'a été informé de l'expérimentation et n'a donné son consentement. Les chercheurs ont également omis d'avertir les modérateurs du subreddit, malgré les règles du forum exigeant la divulgation des publications générées par l'IA. En mars, les modérateurs ont reçu un message des chercheurs divulguant le sujet. L'équipe a défendu son étude et « l'importance sociétale de ce sujet », affirmant qu'il était « crucial de mener une étude de ce type, même si cela impliquait de désobéir aux règles ». Suite à cette révélation, les modérateurs de Reddit ont déposé une plainte éthique auprès de l'Université de Zurich, « demandant que la recherche ne soit pas publiée, que les chercheurs soient sanctionnés et que des excuses publiques soient présentées », a déclaré Mashable. Les modérateurs et les utilisateurs de Reddit ont exprimé leur « profonde déception face à l'absence de consentement éclairé, principe fondamental de toute recherche sur des sujets humains ».

Reddit prévoit d'engager des poursuites judiciaires formelles pour ce que l'avocat principal de l'entreprise a qualifié d'« expérience inappropriée et hautement contraire à l'éthique ». Ce que cette équipe de l'Université de Zurich a fait était « profondément répréhensible, tant sur le plan moral que juridique », a déclaré Ben Lee, directeur juridique de Reddit, dans un message sur le forum.

Réponses des universitaires au dilemme éthique

L'expérience a été critiquée par d'autres universitaires, qui ont également exprimé des inquiétudes d'ordre éthique concernant les actions des chercheurs. « L'expérience est l'une des pires violations de l'éthique de la recherche que j'aie jamais observées », a déclaré Casey Fiesler, informaticien à l'Université du Colorado, sur Bluesky. Manipuler les membres des communautés en ligne en utilisant la « tromperie sans consentement » n'est pas une activité à faible risque et, comme en témoignent les propos qui ont suivi sur Reddit, elle a « entraîné des préjudices ».

L'expérience a porté atteinte à l'intégrité du forum CMV lui-même, a déclaré Sarah Gilbert, directrice de recherche du Citizens and Technology Lab de l'Université Cornell. Le subreddit CMV est un « espace public important où les gens peuvent débattre, apprendre de nouvelles choses, remettre en question leurs hypothèses et peut-être même changer d'avis », a-t-elle déclaré sur Bluesky. « Les gens seront-ils convaincus qu'ils n'interagissent pas avec des robots ? » Et si ce n'est pas le cas, « la communauté pourra-t-elle remplir sa mission ? » À une époque où tant de critiques sont formulées contre les entreprises technologiques pour leur non-respect de l'autonomie des individus, il est particulièrement important que les chercheurs se conforment à des normes plus strictes, a déclaré Carissa Véliz, professeure d'éthique à l'Université d'Oxford, à New Scientist. « Et dans ce cas précis, ces chercheurs ne l'ont pas fait. » L'étude reposait sur « la manipulation et la tromperie de sujets de recherche non consentants », a-t-elle ajouté. « Cela semble injustifié. »

« La tromperie peut être acceptable en recherche, mais je ne suis pas sûr que ce cas soit raisonnable », a déclaré Matt Hodgkinson, du Directory of Open Access Journals, à New Scientist. Il est ironique que les chercheurs « aient dû mentir au LLM pour prétendre que les participants avaient donné leur consentement », a-t-il déclaré. « Les chatbots ont-ils une meilleure éthique que les universités ? »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf