Incidents associés
Lorsque Reddit s'est rebaptisé « le cœur d'Internet » il y a quelques années, le slogan visait à évoquer le caractère organique du site. À l'ère des réseaux sociaux dominés par les algorithmes, Reddit s'enorgueillissait d'être animé par une communauté qui exprimait ses sentiments sous forme de votes positifs et négatifs – autrement dit, façonnée par de vraies personnes.
Ainsi, en début de semaine, lorsque les membres d'un subreddit populaire ont appris que leur communauté avait été infiltrée par des chercheurs infiltrés qui publiaient des commentaires rédigés par des IA et les faisaient passer pour des pensées humaines, les Redditors ont, comme on pouvait s'y attendre, manifesté leur colère. Ils ont qualifié l'expérience de « violante », de « honteuse », « exaspérante » et de « très dérangeante ». Face à la recrudescence des réactions, les chercheurs sont restés silencieux, refusant de révéler leur identité ou de répondre aux questions sur leur méthodologie. L'université qui les emploie a annoncé l'ouverture d'une enquête. Pendant ce temps, le directeur juridique de Reddit, Ben Lee, a écrit que l'entreprise entend « s'assurer que les chercheurs soient tenus responsables de leurs méfaits ».
D'autres chercheurs spécialisés dans Internet se sont joints à ce concert de désapprobation, condamnant ce qu'ils considèrent comme une expérience manifestement contraire à l'éthique. Amy Bruckman, professeure au Georgia Institute of Technology et auteure d'études sur les communautés en ligne depuis plus de vingt ans, m'a confié que le fiasco de Reddit est « la pire violation de l'éthique de la recherche sur Internet que j'aie jamais vue, sans conteste ». De plus, elle et d'autres craignent que ce tollé ne compromette le travail des chercheurs qui utilisent des méthodes plus conventionnelles pour étudier un problème crucial : l'influence de l'IA sur la façon dont les humains pensent et interagissent.
Les chercheurs, basés à l'Université de Zurich, voulaient savoir si les réponses générées par l'IA pouvaient changer l'opinion des gens. Ils se sont donc rendus sur le subreddit bien nommé r/changemyview, où les utilisateurs débattent de questions sociétales importantes, ainsi que de nombreux sujets triviaux, et attribuent des points aux publications qui les dissuadent de leur position initiale. En quatre mois, les chercheurs ont publié plus de 1 000 commentaires générés par l'IA sur les pitbulls (l'agressivité est-elle la faute de la race ou du propriétaire ?), la crise du logement (vivre chez ses parents est-elle la solution ?), les programmes DEI (étaient-ils voués à l'échec ?). Les commentateurs IA ont affirmé que parcourir Reddit était une perte de temps et que la théorie du complot de la « démolition contrôlée » du 11 septembre avait du mérite. Tout en partageant leurs opinions générées par ordinateur, ils ont également partagé leurs histoires personnelles. L'un d'eux s'est présenté comme un thérapeute spécialisé en traumatismes ; un autre s'est décrit comme victime de viol sur mineure.
D'une certaine manière, les commentaires IA semblent avoir été plutôt efficaces. Lorsque les chercheurs ont demandé à l'IA d'adapter ses arguments aux détails biographiques d'un utilisateur Reddit, notamment son sexe, son âge et ses convictions politiques (déduits, grâce à un autre modèle d'IA, de l'historique des publications de l'utilisateur), un nombre surprenant d'avis ont effectivement changé. Ces arguments IA personnalisés ont obtenu, en moyenne, des scores bien plus élevés dans le système de points du subreddit que la quasi-totalité des commentateurs humains, selon les résultats préliminaires que les chercheurs ont partagés avec les modérateurs de Reddit et rendus privés par la suite. (Cette analyse suppose, bien sûr, que personne d'autre dans le subreddit n'utilisait l'IA pour affiner ses arguments.)
Les chercheurs ont eu plus de mal à convaincre les Redditeurs du bien-fondé de leur étude secrète. Une fois l'expérience terminée, ils ont contacté les modérateurs du subreddit, ont révélé leur identité et ont demandé à « débriefing » le subreddit, c'est-à-dire à annoncer aux membres que, pendant des mois, ils avaient été les cobayes d'une expérience scientifique. « Ils ont été plutôt surpris de la réaction aussi négative que nous avons eue à l'expérience », explique un modérateur, qui a demandé à être identifié par son nom d'utilisateur, LucidLeviathan, afin de protéger sa vie privée. Selon LucidLeviathan, les modérateurs ont demandé aux chercheurs de ne pas publier un travail aussi vicié et de présenter des excuses. Les chercheurs ont refusé. Après plus d'un mois d'échanges, les modérateurs ont révélé ce qu'ils avaient appris sur l'expérience (sans les noms des chercheurs) au reste du subreddit, exprimant clairement leur désapprobation.
Lorsque les modérateurs ont adressé une plainte à l'Université de Zurich, celle-ci a indiqué dans sa réponse que « le projet apporte des informations importantes et que les risques (par exemple, traumatismes, etc.) sont minimes », selon un extrait publié par les modérateurs. Dans une déclaration qui m'a été adressée, un porte-parole de l'université a indiqué que le comité d'éthique avait été informé de l'étude le mois dernier, avait conseillé aux chercheurs de se conformer aux règles du subreddit et « avait l'intention d'adopter un processus d'évaluation plus strict à l'avenir ». De leur côté, les chercheurs ont défendu leur approche dans un commentaire sur Reddit, arguant qu'« aucun commentaire ne défendait de positions préjudiciables » et que chaque commentaire généré par l'IA était examiné par un membre de l'équipe humaine avant d'être publié. (J'ai envoyé un courriel à une adresse anonyme des chercheurs, publiée par les modérateurs de Reddit, et j'ai reçu une réponse adressant mes questions à l'université.)
L'aspect le plus révélateur de la défense des chercheurs de Zurich était peut-être que, selon eux, la tromperie était au cœur de l'étude. Le comité d'éthique de l'Université de Zurich – qui peut conseiller les chercheurs mais, selon l'université, n'a pas le pouvoir de rejeter les études ne respectant pas ses normes – a indiqué aux chercheurs, avant leur publication, que « les participants devaient être informés autant que possible », selon le communiqué de l'université que j'ai reçu. Mais les chercheurs semblent croire que cela aurait ruiné l'expérience. « Pour tester de manière éthique le pouvoir de persuasion des masters de droit dans des scénarios réalistes, un environnement inconscient était nécessaire », car il reproduit plus fidèlement la réaction des individus face à des acteurs malveillants non identifiés dans des situations réelles, ont écrit les chercheurs dans un commentaire sur Reddit.
La réaction probable des humains dans un tel scénario est une question urgente et un sujet de recherche universitaire pertinent. Dans leurs résultats préliminaires, les chercheurs ont conclu que les arguments de l'IA peuvent être « hautement persuasifs dans des contextes réels, surpassant tous les critères de persuasion humaine connus jusqu'alors ». (Étant donné que les chercheurs ont finalement accepté cette semaine de ne pas publier d'article sur l'expérience, l'exactitude de ce verdict ne sera probablement jamais pleinement évaluée, ce qui est en soi une honte.) La perspective de se faire changer d'avis par quelque chose qui n'en a pas est profondément troublante. Ce superpouvoir de persuasion pourrait également être utilisé à des fins néfastes.
Pourtant, les scientifiques n'ont pas besoin de bafouer les normes de l'expérimentation sur des sujets humains pour évaluer la menace. « La conclusion générale selon laquelle l'IA peut se situer à l'extrémité supérieure de la persuasion humaine – plus persuasive que la plupart des humains – concorde avec ce que les expériences en laboratoire ont découvert », m'a expliqué Christian Tarsney, chercheur principal à l'Université du Texas à Austin. Lors d'une expérience récente en laboratoire, des participants qui croyaient aux théories du complot ont volontairement discuté avec une IA ; après trois échanges, environ un quart d'entre eux ont perdu confiance en leurs croyances antérieures. Une autre étude a révélé que ChatGPT produisait une désinformation plus convaincante que les humains, et que les participants à qui l'on demandait de distinguer les publications authentiques de celles rédigées par l'IA n'y parvenaient pas efficacement.
Giovanni Spitale, l'auteur principal de cette étude, est également chercheur à l'Université de Zurich et a été en contact avec l'un des chercheurs à l'origine de l'expérience d'IA sur Reddit, qui lui a demandé de ne pas révéler son identité. « Nous recevons des dizaines de menaces de mort », lui a écrit le chercheur dans un message que Spitale m'a transmis. « Veuillez garder le secret pour la sécurité de ma famille. »
L'une des raisons probables de cette forte réaction est que, sur une plateforme aussi soudée que Reddit, la trahison est profondément blessante. « L'un des piliers de cette communauté est la confiance mutuelle », m'a expliqué Spitale ; c'est en partie la raison pour laquelle il s'oppose aux expériences sur Reddit à leur insu. Plusieurs chercheurs avec qui j'ai discuté de ce dernier dilemme éthique l'ont comparé – défavorablement – à la tristement célèbre étude de Facebook sur la contagion émotionnelle (https://www.theatlantic.com/technology/archive/2014/06/everything-we-know-about-facebooks-secret-mood-manipulation-experiment/373648/). En 2012, pendant une semaine, Facebook a modifié le fil d'actualité de ses utilisateurs pour voir si la consultation de contenu plus ou moins positif modifiait leurs habitudes de publication. (Cela a été le cas, un peu.) Casey Fiesler, professeure associée à l'Université du Colorado à Boulder, qui étudie l'éthique et les communautés en ligne, m'a confié que l'étude sur la contagion émotionnelle était bien peu de chose en comparaison de celle des chercheurs de Zurich. « Les gens étaient contrariés par cette situation, mais pas autant que cette communauté Reddit », m'a-t-elle confié. « Cela semblait beaucoup plus personnel. » Cette réaction est probablement aussi liée à l'idée troublante que ChatGPT sache sur quels boutons appuyer dans notre esprit. Se laisser berner par des chercheurs Facebook humains aux normes éthiques douteuses est une chose, et se laisser duper par un chatbot cosplayer en est une autre. J'ai lu des dizaines de commentaires d'IA, et même s'ils n'étaient pas tous brillants, la plupart semblaient raisonnables et sincères. Ils soulevaient de nombreux points pertinents, et je me suis surpris à acquiescer plus d'une fois. Comme le préviennent les chercheurs de Zurich, sans outils de détection plus robustes, les robots IA pourraient « s'intégrer harmonieusement aux communautés en ligne » – à supposer que ce ne soit pas déjà le cas.