Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5145

Incidents associés

Incident 10436 Rapports
Reddit Moderators Report Unauthorized AI Study Involving Fabricated Identities by Purported University of Zurich Researchers

Loading...
Reddit dénonce une « expérience contraire à l'éthique » qui a déployé des robots d'IA secrets dans un forum
washingtonpost.com · 2025

Reddit tire la sonnette d'alarme concernant ce qu'il a qualifié d'« expérience inappropriée et hautement contraire à l'éthique » menée par un groupe de chercheurs de l'Université de Zurich, qui ont secrètement déployé des robots d'IA sur un forum populaire pour étudier comment l'intelligence artificielle peut influencer l'opinion humaine.

Les modérateurs du subreddit changemyview ont alerté les 3,8 millions d'utilisateurs du groupe ce week-end au sujet de cette « expérience non autorisée » qui se déroulait depuis quelques mois. Les modérateurs ont déclaré avoir reçu une notification des chercheurs dans le cadre d'une étape de divulgation de l'étude. Ces derniers affirmaient avoir utilisé plusieurs comptes pour publier sur le subreddit sans divulguer l'utilisation de l'IA pour la rédaction des commentaires.

Le subreddit (https://www.reddit.com/r/changemyview/about/), qui fonctionne comme un espace où publier une opinion que l'on admet être potentiellement erronée afin de mieux comprendre les points de vue divergents, n'autorise pas l'utilisation de contenu non divulgué généré par l'IA ni de robots. « Les chercheurs ne nous ont pas contactés avant l'étude et, s'ils l'avaient fait, nous aurions refusé », ont écrit les modérateurs dans leur message.

Dans un message d'administrateur se présentant comme le directeur juridique de Reddit, Ben Lee, utilisant le nom d'utilisateur Reddit traceroo, a qualifié l'expérience d'« inappropriée et hautement contraire à l'éthique », ainsi que de « profondément erronée tant sur le plan moral que juridique ».

« Nous sommes en train de contacter l'Université de Zurich et cette équipe de recherche afin de formuler des demandes légales formelles », a déclaré Lee lundi dans un message sur le forum. « Nous voulons faire tout notre possible pour soutenir la communauté et garantir que les chercheurs soient tenus responsables de leurs méfaits. » Il n'a pas immédiatement répondu à une demande de commentaire sur les implications potentielles de ces demandes.

Melanie Nyfeler, porte-parole de l'Université de Zurich, a confirmé mercredi par courriel que le Comité d'éthique de la Faculté des lettres et des sciences sociales avait examiné l'année dernière un projet de recherche « étudiant le potentiel de l'intelligence artificielle pour réduire la polarisation du discours politique fondé sur les valeurs ». L'une des quatre études associées à ce projet impliquait l'utilisation d'agents conversationnels (« chatbots ») pilotés par un modèle de langage étendu (LLM) dans des forums et subreddits en ligne, a déclaré Nyfeler.

Le comité avait informé les chercheurs que cette étude serait « exceptionnellement » difficile, car « les participants doivent être informés autant que possible » et « les règles de la plateforme doivent être pleinement respectées », a précisé Nyfeler. Cependant, les évaluations du comité sont des recommandations et ne sont pas juridiquement contraignantes. « Les chercheurs sont eux-mêmes responsables de la réalisation du projet et de la publication des résultats », a déclaré Nyfeler.

« Compte tenu de ces événements, le comité d'éthique de la Faculté des lettres et des sciences sociales prévoit d'adopter un processus d'évaluation plus strict à l'avenir et, en particulier, de se coordonner avec les communautés sur les plateformes avant les études expérimentales », a ajouté Nyfeler. « Les autorités compétentes de l'Université de Zurich sont au courant des incidents et vont maintenant les enquêter en détail et examiner de manière critique les processus d'évaluation pertinents. »

Nyfeler a ajouté que les chercheurs ont décidé de ne pas publier les résultats de l'expérience.

Dans leur publication de samedi détaillant leurs conclusions, les modérateurs du subreddit ont déclaré avoir déposé une plainte éthique auprès de l'université et lui avoir demandé de ne pas publier la recherche, arguant que sa publication « encouragerait considérablement de nouvelles intrusions de la part des chercheurs, contribuant ainsi à accroître la vulnérabilité de la communauté à de futures expérimentations non consensuelles sur des sujets humains ».

Ils ont indiqué que les chercheurs leur avaient communiqué une version préliminaire des résultats de l'expérience, dont le lien était inclus dans la publication, mais dont l'accès était réservé aux personnes autorisées.

Logan MacGregor, l'un des modérateurs du subreddit, a déclaré au Washington Post que les actions des chercheurs lui avaient donné le sentiment d'avoir été violé. Il avait rejoint le forum il y a environ un an après s'être déconnecté de la plupart des autres réseaux sociaux en raison de la toxicité et du caractère virulent des discours. Mais r/changemyview, avec ses règles et son éthique bien établies, était différent, a-t-il déclaré.

« J'ai rejoint Reddit à contrecœur, car la règle numéro un est de ne pas oublier l'humain », a-t-il déclaré. « Et puis j'ai trouvé cet espace où l'on pouvait parler de tout, où tous les points de vue étaient permis et où la civilité était de mise. C'était un espace humain et sûr pour échanger des idées. »

Les chercheurs, dont les noms n'ont pas été divulgués, ont utilisé des robots d'intelligence artificielle pour gérer 13 comptes différents, dont l'un prétendait être celui d'une victime de viol et l'autre celui d'un homme noir opposé au mouvement Black Lives Matter, ont écrit les modérateurs dans leur annonce.

Utilisant un compte Reddit validé par les modérateurs du forum, LLMresearchteam, les chercheurs ont répondu aux inquiétudes et aux critiques de la communauté, précisant qu'ils avaient dû mener leur expérience sans alerter les utilisateurs ni obtenir le consentement des participants non informés, car « un environnement non informé était nécessaire ». » Les chercheurs ont déclaré avoir tenté de lancer 34 comptes au départ, mais que 21 d'entre eux ont été bannis de l'ombre au cours des deux premières semaines, ce qui signifie que ces comptes pouvaient toujours consulter le subreddit, mais que leurs publications étaient cachées au reste de la communauté. Les 13 comptes restants publiaient en moyenne 10 à 15 publications par jour, ont précisé les chercheurs, un volume qu'ils qualifient de négligeable compte tenu des 7 000 publications quotidiennes moyennes de l'ensemble du subreddit.

Au total, les robots ont publié environ 1 700 commentaires, selon les modérateurs.

« Les recherches antérieures sur la persuasion des candidats au LLM n'ont été menées que dans des environnements hautement artificiels, impliquant souvent des participants rémunérés », ont écrit les chercheurs [https://www.reddit.com/user/LLMResearchTeam/]. Ces paramètres ne parviennent pas à saisir la complexité des interactions réelles, qui évoluent de manière spontanée et imprévisible, de nombreux facteurs contextuels influençant l'évolution des opinions au fil du temps. Les expériences basées sur le consentement manquent de validité écologique, car elles ne peuvent pas simuler le comportement des utilisateurs lorsqu'ils ne sont pas conscients des tentatives de persuasion, comme ce serait le cas en présence d'acteurs malveillants.

Les chercheurs se sont excusés pour toute perturbation que leur étude aurait pu causer, mais ont maintenu que « chaque décision » tout au long de leur étude était guidée par les principes de « conduite scientifique éthique, de sécurité des utilisateurs et de transparence ». Ils ont fait valoir que le Comité d'éthique de l'Université de Zurich avait examiné et approuvé leur approche, et qu'ils « reconnaissaient que le consentement préalable était irréaliste ».

L'université, tout en partageant sa déclaration, n'a pas répondu à d'autres questions.

Angeliki Kerasidou, professeure agrégée de bioéthique à l'Université d'Oxford, a déclaré au Washington Post que si la tromperie en recherche peut être justifiée lorsque la recherche a une grande valeur sociale, le consentement éclairé est désormais considéré comme une pierre angulaire de la recherche éthique, « car il sous-tend le respect des personnes et soutient l'autonomie individuelle ».

L'expérience menée sur r/changemyview « illustre l'importance de réfléchir à la valeur sociale (et pas seulement scientifique) de la recherche et de collaborer avec les communautés de recherche lors de la planification des projets », a écrit Kerasidou dans un courriel.

MacGregor a déclaré que l'un des points positifs de l'expérience était qu'elle avait attiré l'attention sur un problème omniprésent : comment protéger les « précieux espaces humains civilisés » qui existent encore sur Internet.

« Les chercheurs ont raison sur les défis existentiels de l'IA », a-t-il déclaré. « Leur approche était erronée. Mais je pense qu'ils étaient bien intentionnés, et l'une des choses que j'aimerais personnellement voir émerger de tout cela, c'est… une meilleure approche face à la lutte que nous menons tous contre l'IA. Elle ne disparaîtra pas. On ne peut pas la désactiver. Mais que pouvons-nous faire pour préserver l'humanité de ces espaces ? »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd