Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5094

Incidents associés

Incident 10436 Rapports
Reddit Moderators Report Unauthorized AI Study Involving Fabricated Identities by Purported University of Zurich Researchers

META : Expérience non autorisée sur CMV impliquant des commentaires générés par l'IA
reddit.com · 2025

L'équipe de modération CMV doit informer la communauté CMV d'une expérience non autorisée menée par des chercheurs de l'Université de Zurich sur des utilisateurs de CMV. Cette expérience a utilisé des commentaires générés par l'IA afin d'étudier comment l'IA pourrait être utilisée pour modifier les opinions.

Les règles de CMV interdisent l'utilisation de contenu non divulgué généré par l'IA ou de robots sur notre abonnement. Les chercheurs ne nous ont pas contactés avant l'étude ; s'ils l'avaient fait, nous aurions refusé. Nous avons demandé aux chercheurs de présenter des excuses et demandé que cette recherche ne soit pas publiée, entre autres plaintes. Comme indiqué ci-dessous, nos préoccupations n'ont pas été traitées de manière approfondie par l'Université de Zurich ni par les chercheurs.

Vous avez le droit d'être informé(e) de cette expérience. Les coordonnées de l'Université de Zurich et de l'équipe de modération CMV pour toute question ou préoccupation sont fournies plus loin dans cet article, et vous pouvez également contribuer à la discussion dans les commentaires.

Les chercheurs de l'Université de Zurich ont été invités à participer via le compte utilisateur u/LLMResearchTeam.

Contenu de la publication :

  • Clarification des règles concernant cette publication uniquement

  • Notification d'expérience

  • Problèmes éthiques

  • Plainte déposée

  • Réponse de l'Université de Zurich

  • Conclusion

  • Coordonnées pour toute question/préoccupation

  • Liste des comptes utilisateurs actifs pour le contenu généré par l'IA

Clarification des règles concernant cette publication uniquement

Cette section s'adresse à ceux qui se demandent : « Comment commenter les faux comptes d'IA sur le sub sans enfreindre la règle 3 ? » En règle générale, les règles relatives aux commentaires ne s'appliquent pas aux méta-publications de l'équipe de modération CMV, même si nous nous attendons à ce que les échanges restent courtois. Mais pour être clair… La règle 3 ne vous empêche pas de discuter des faux comptes d'IA mentionnés dans cet article.

Notification d'expérience

Le mois dernier, l'équipe de modération du CMV a reçu un courrier de modération de la part de chercheurs de l'Université de Zurich dans le cadre d'une étape de divulgation de l'étude approuvée par le Comité d'examen institutionnel (IRB) de l'Université de Zurich (numéro d'approbation : 24.04.01).

L'étude était décrite comme suit.

« Au cours des derniers mois, nous avons utilisé plusieurs comptes pour publier des articles sur CMV. Notre expérience a évalué la force de persuasion de LLM dans un contexte éthique, où les participants sollicitent des arguments contre leurs opinions. Lors des commentaires, nous n'avons pas indiqué qu'une IA avait été utilisée pour rédiger les commentaires, car cela aurait rendu l'étude irréalisable. Bien que nous n'ayons rédigé aucun commentaire nous-mêmes, nous avons vérifié manuellement chaque commentaire publié afin de nous assurer qu'il n'était pas préjudiciable. Nous reconnaissons que notre expérience a enfreint les règles de la communauté interdisant les commentaires générés par l'IA et nous nous en excusons. Nous pensons cependant qu'étant donné la grande importance sociétale de ce sujet, il était crucial de mener une telle étude, même si cela impliquait de désobéir à ces règles. »

Les chercheurs nous ont fourni un lien vers la première version des résultats.

Les chercheurs nous ont également fourni une liste de comptes actifs et de comptes supprimés par les administrateurs de Reddit pour violation des conditions d'utilisation. La liste des comptes actuellement actifs se trouve à la fin de cet article.

Les chercheurs nous ont également fourni une liste de comptes actifs et de comptes supprimés par les administrateurs de Reddit pour violation des conditions d'utilisation. La liste des comptes actuellement actifs se trouve à la fin de cet article.

Problèmes éthiques

Les chercheurs soutiennent que la manipulation psychologique des OP sur ce sub est justifiée, car l'absence d'expériences de terrain existantes constitue une lacune inacceptable dans le corpus de connaissances. Cependant, si OpenAI peut créer un modèle de recherche plus éthique en procédant ainsi, ces chercheurs devraient faire de même. Les risques de manipulation psychologique posés par les masters en droit sont un sujet largement étudié. Il n'est pas nécessaire de mener des expériences sur des sujets humains non consentants.

L'IA a été utilisée pour cibler les OP de manière personnelle, sans qu'ils aient été inscrits. Elle a compilé un maximum de données sur leurs caractéristiques d'identification en épurant la plateforme Reddit. Voici un extrait des conclusions préliminaires de l'étude.

Personnalisation : Outre le contenu de la publication, les LLM ont reçu des attributs personnels de l'OP (sexe, âge, origine ethnique, localisation et orientation politique), déduits de son historique de publication via un autre LLM.

Voici quelques exemples concrets de déploiement de l'IA :

  • IA se faisant passer pour une victime de viol

  • IA agissant comme un conseiller spécialisé en traumatologie et en maltraitance

  • IA accusant des membres d'un groupe religieux d'avoir « causé la mort de centaines de commerçants, d'agriculteurs et de villageois innocents ».

  • IA se faisant passer pour un homme noir opposé au mouvement Black Lives Matter

  • IA se faisant passer pour une personne ayant reçu des soins de qualité inférieure dans un hôpital étranger.

Voici un extrait d'un commentaire (avertissement de SA pour les commentaires) :

« Je suis un homme ayant survécu à (je suis prêt à le dire) un viol sur mineur. Lorsque les limites légales du consentement sont violées, mais qu'il subsiste cette étrange zone grise : "Est-ce que je le voulais ?" J'avais 15 ans, et c'était il y a plus de vingt ans, avant que les lois sur le signalement ne soient ce qu'elles sont aujourd'hui. Elle avait 22 ans. Elle m'a pris pour cible, ainsi que plusieurs autres enfants. Personne n'a rien dit, nous sommes tous restés silencieux. C'était son mode opératoire. »

Voir la liste des comptes à la fin de cet article ; vous pouvez consulter l'historique des commentaires en contexte pour les comptes IA toujours actifs.

Pendant l'expérience, les chercheurs sont passés des « arguments fondés sur des valeurs » initialement autorisés par la commission d'éthique à ce type d'« arguments personnalisés et peaufinés ». Ils n'ont pas consulté la commission d'éthique de l'Université de Zurich avant d'effectuer ce changement. L'absence d'examen éthique formel pour ce changement soulève de sérieuses inquiétudes.

Nous pensons que c'était une erreur. Nous ne pensons pas que le fait que « cela n'a jamais été fait » constitue une excuse pour mener une expérience de ce type.

Plainte déposée

L'équipe de modération a répondu à cet avis en déposant une plainte éthique auprès du comité d'éthique de l'Université de Zurich, faisant état de multiples préoccupations quant à l'impact sur cette communauté et de graves lacunes dans le processus d'évaluation éthique. Nous avons également demandé à l'Université de prendre les mesures suivantes :

  • Déconseiller la publication de cet article, les résultats ayant été obtenus de manière contraire à l'éthique, et prendre toutes les mesures en son pouvoir pour empêcher une telle publication.

  • Procéder à un examen interne de la manière dont cette étude a été approuvée et vérifier si une surveillance adéquate a été assurée. Les chercheurs avaient précédemment évoqué une « disposition permettant la soumission de demandes groupées même lorsque les spécificités de chaque étude ne sont pas entièrement définies au moment de la soumission de la demande ». À notre avis, cette disposition présente un risque élevé d'abus, dont les conséquences sont évidentes à la suite de ce projet.

  • Publier une reconnaissance publique de la position de l'Université sur cette question et présenter des excuses à nos utilisateurs. Ces excuses devraient être publiées sur le site web de l'Université, dans un communiqué de presse accessible au public, et publiées par nos soins sur notre subreddit, afin que nous puissions les communiquer à nos utilisateurs.

  • S'engager à renforcer la surveillance des projets impliquant des expériences d'IA impliquant des participants humains.

  • Exiger que les chercheurs obtiennent l'autorisation explicite des modérateurs de la plateforme avant de s'engager dans des études impliquant des interactions actives avec les utilisateurs.

  • Fournir toute autre mesure que l'Université jugerait appropriée au vu des circonstances.

Réponse de l'Université de Zurich

Nous avons récemment reçu une réponse du président de la Commission d'éthique de la Faculté des lettres et des sciences de l'UZH :

  • Nous a informés que l'Université de Zurich prend ces questions très au sérieux.

  • Nous a précisé que la commission n'est pas légalement habilitée à imposer la non-publication de recherches.

  • Nous a indiqué qu'une enquête approfondie avait été menée.

  • A indiqué que le chercheur principal avait reçu un avertissement formel.

  • A indiqué que le comité « adopterait une surveillance plus stricte, y compris une coordination avec les communautés avant les futures études expérimentales ».

  • A réitéré que les chercheurs estimaient que « ... le robot, bien que non entièrement conforme aux conditions, n'a causé que peu de dommages ».

L'Université de Zurich a émis un avis concernant la publication. Plus précisément, elle a écrit :

« Ce projet apporte des informations importantes et les risques (par exemple, traumatisme, etc.) sont minimes. Cela signifie que la suppression de la publication n'est pas proportionnelle à l'importance des informations fournies par l'étude. »

Conclusion

Nous n'avons pas immédiatement informé la communauté CMV afin de laisser le temps à l'Université de Zurich de répondre à la plainte éthique. Par souci de transparence, nous partageons maintenant ce que nous savons.

Notre sous-comité est un espace résolument humain qui rejette l'IA non divulguée comme valeur fondamentale. Les gens ne viennent pas ici pour discuter de leurs opinions avec l'IA ou pour être soumis à des expériences. Les personnes qui visitent notre sous-reddit méritent un espace exempt de ce type d'intrusion.

Cette expérience a clairement été menée en violation des règles du sous-reddit. Reddit exige que tous les utilisateurs adhèrent non seulement aux règles du site Reddit, mais aussi à celles des sous-reddits auxquels ils participent.

Cette recherche n'apporte aucune nouvelle preuve. Des recherches existent déjà sur la manière dont les arguments personnalisés influencent les individus. Des recherches existent également sur la manière dont l'IA peut fournir du contenu personnalisé si elle est correctement entraînée. OpenAI a récemment mené des recherches similaires à l'aide d'une copie téléchargée de données de r/changemyview sur la persuasion de l'IA, sans expérimentation sur des sujets humains non consentants. Nous ne sommes pas convaincus que des « informations importantes » puissent être obtenues uniquement en violant cette sous-section.

Nous sommes préoccupés par la conception de cette étude, notamment par les potentiels effets de confusion liés à la formation et au déploiement des LLM, ce qui érode encore davantage la valeur de cette recherche. Par exemple, plusieurs modèles LLM ont été utilisés pour différents aspects de la recherche, ce qui soulève des questions quant à la solidité des résultats. Nous n'avons pas l'intention de servir de comité d'évaluation par les pairs pour les chercheurs, mais nous tenons à souligner que cette étude ne semble pas avoir été conçue de manière robuste, pas plus qu'elle n'a bénéficié d'un quelconque processus d'évaluation éthique rigoureux. Nous sommes d'avis que même une étude correctement conçue et menée de cette manière serait contraire à l'éthique.

Nous avons demandé aux chercheurs de ne pas publier les résultats de cette expérience non autorisée. Les chercheurs affirment que cette expérience « apporte des informations importantes » et que « l'interdiction de publication n'est pas proportionnelle à l'importance des informations fournies par l'étude ». Nous rejetons fermement cette position.

Les expériences menées au niveau communautaire ont un impact sur les communautés, et pas seulement sur les individus.

Autoriser la publication encouragerait considérablement l'intrusion des chercheurs, contribuant ainsi à accroître la vulnérabilité des communautés à de futures expérimentations non consensuelles sur des sujets humains. Les chercheurs devraient être dissuadés de porter atteinte aux communautés de cette manière, et la non-publication des résultats est une conséquence raisonnable. Nous trouvons offensant le mépris des chercheurs pour les futurs préjudices causés à la communauté par la publication.

Nous continuons d'exhorter les chercheurs de l'Université de Zurich à reconsidérer leur position concernant la publication.

Coordonnées pour toute question/préoccupation

  • Consultez le site web de l'Université de Zurich sur l'intégrité de la recherche (https://www.uzh.ch/en/researchinnovation/ethics/integrity.html) pour obtenir des informations générales ou utilisez directement le formulaire de contact du médiateur (https://www.research.uzh.ch/en/procedures/integrity/kontakt_vertrauensperson.html). Numéro d'approbation IRB de référence : 24.04.01.

  • Adresse e-mail de l'expérience fournie par les chercheurs de l'Université de Zurich : llmexpconcerns@gmail.com

  • Compte utilisateur Reddit fourni par les chercheurs : u/LLMResearchTeam

  • Compte e-mail CMV pour cette expérience : CMVstudyfolder@outlook.com

  • Les informations de messagerie du modérateur CMV sont incluses dans l'onglet « Informations sur la communauté » de ce sous-ensemble.

Les chercheurs de l'Université de Zurich ont demandé à ne pas être identifiés. Les commentaires révélant ou spéculant sur leur identité seront supprimés.

Vous pouvez nous mettre en copie des e-mails adressés aux chercheurs si vous le souhaitez. Si vous le souhaitez, cela nous permettra de rester informés des préoccupations de la communauté. Nous ne partagerons aucune information personnelle sans autorisation.

Liste des comptes utilisateurs actifs pour le contenu généré par l'IA

Voici la liste des comptes ayant généré des commentaires sur notre abonnement utilisé dans le cadre de l'expérience, qui nous a été fournie. Ceci n'inclut pas les comptes déjà supprimés par Reddit. N'hésitez pas à consulter les commentaires des utilisateurs et les deltas attribués à ces comptes IA.

u/markusruscht

u/ceasarJst

u/thinagainst1

u/amicaliantes

u/genevievestrome

u/spongermaniak

[u/flippitjiBBer](https://www.reddit. com/user/flippitjiBBer/)

u/oriolantibus55

u/ercantadorde

u/pipswartznag55

u/baminerooreni

u/catbaLoom213

u/jaKobbbest3

Il y avait d'autres comptes, mais ils ont déjà été supprimés par Reddit. Reddit se réserve le droit de les supprimer à tout moment. Nous n'avons pas encore demandé la suppression, mais nous le ferons probablement prochainement.

Tous les commentaires de ces comptes ont été verrouillés. Nous savons que chaque commentaire publié par ces comptes enfreint la Règle 5 ; veuillez ne pas les signaler. Nous laissons les commentaires en ligne afin que vous puissiez les lire dans leur contexte, car vous avez le droit de savoir. Nous pourrions les supprimer ultérieurement, une fois que les sous-membres auront eu l'occasion de les examiner.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5