Incidents associés

Un soir de la semaine dernière, le professeur de droit Jonathan Turley a reçu un e-mail troublant. Dans le cadre d'une étude de recherche, un collègue avocat en Californie avait demandé au chatbot AI ChatGPT de générer une liste de juristes qui avaient harcelé sexuellement quelqu'un. Le nom de Turley était sur la liste.
Le chatbot, [créé par OpenAI](https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/technology/2023/02/06/what-is-openai-chatgpt/? itid=lk_inline_manual_4), a déclaré que Turley avait fait des commentaires sexuellement suggestifs et tenté de toucher un élève lors d'un voyage scolaire en Alaska, citant un article de mars 2018 dans le Washington Post comme source de l'information. Le problème : aucun article de ce type n'existait. Il n'y avait jamais eu de voyage de classe en Alaska. Et Turley a dit qu'il n'avait jamais été accusé d'avoir harcelé un étudiant.
Commentateur r égulier dans les médias, Turley avait parfois demandé des corrections dans des reportages. Mais cette fois, il n'y avait ni journaliste ni rédacteur en chef à appeler - et aucun moyen de corriger le dossier.
"C'était assez effrayant", a-t-il déclaré dans une interview avec The Post. "Une allégation de ce genre est incroyablement préjudiciable."
L'expérience de Turley est une étude de cas sur les pièges de la dernière vague de robots linguistiques, qui ont capté l'attention du grand public grâce à leur capacité à écrire du code informatique, à créer des poèmes et à tenir des conversations étrangement humaines. Mais cette créativité peut aussi être un moteur d'affirmations erronées ; les modèles peuvent déformer les faits clés avec beaucoup de succès, même [fabriquant des sources primaires] (https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/politics/2023/03/22/trump -arrest-deepfakes/?itid=lk_inline_manual_9) pour étayer leurs affirmations.
En tant que logiciel d'intelligence artificielle largement non réglementé tel que ChatGPT, [Microsoft's Bing](https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/technology/2023/02/16/microsoft-bing -ai-chatbot-sydney/?itid=lk_inline_manual_10) et Google's Bard commence à être intégré sur le Web, sa propension à générer des mensonges potentiellement préjudiciables soulève des inquiétudes quant à la propagation de la désinformation - et de nouvelles questions sur qui est responsable lorsque les chatbots induisent en erreur.
"Parce que ces systèmes réagissent avec une telle confiance, il est très séduisant de supposer qu'ils peuvent tout faire, et il est très difficile de faire la différence entre les faits et les mensonges", a déclaré Kate Crawford, professeur à l'Université de Californie du Sud à Annenberg et chercheuse principale principale. chez Microsoft Research.
Dans un communiqué, le porte-parole d'OpenAI, Niko Felix, a déclaré : « Lorsque les utilisateurs s'inscrivent à ChatGPT, nous nous efforçons d'être aussi transparents que possible afin qu'il ne génère pas toujours des réponses précises. L'amélioration de la précision factuelle est un objectif important pour nous, et nous progressons. »
Les chatbots IA fonctionnent aujourd'hui en s'appuyant sur de vastes bassins de contenu en ligne, souvent extraits de sources telles que Wikipedia et Reddit, pour assembler des réponses plausibles à presque toutes les questions. Ils sont formés pour identifier des modèles de mots et d'idées pour rester sur le sujet car ils génèrent des phrases, des paragraphes et même des essais entiers qui peuvent ressembler à du matériel publié en ligne.
Ces robots peuvent éblouir lorsqu'ils produisent [un sonnet d'actualité](https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/technology/2022/10/07/characterai-google-lamda/? itid=lk_inline_manual_18), expliquez un concept de physique avancé ou générez un plan de cours engageant pour enseigner l'astronomie aux élèves de cinquième année.
Mais ce n'est pas parce qu'ils sont bons pour prédire quels mots sont susceptibles d'apparaître ensemble que les phrases résultantes sont toujours vraies ; le professeur d'informatique de l'Université de Princeton, Arvind Narayanan, a qualifié ChatGPT de "[bulls--- generator.](https://web.archive.org/web/20230405210555/https://themarkup.org/hello-world/2023/ 01/28/decoding-the-hype-about-ai) » Alors que leurs réponses semblent souvent faire autorité, les modèles manquent de mécanismes fiables pour vérifier ce qu'ils disent. Les utilisateurs ont publié de nombreux exemples d'outils tâtonnant des questions factuelles de base ou même fabriquant des mensonges, avec des détails réalistes et de fausses citations.
Mercredi, Reuters a rapporté que Brian Hood, maire régional de Hepburn Shire en Australie, [menace de déposer le premier](https://web.archive.org/web/20230405210555/https://www.Reuters.com/ technology/australian-mayor-readies-worlds-first-diffamation-lawsuit-over-chatgpt-content-2023-04-05/) poursuite en diffamation contre OpenAI à moins qu'elle ne corrige les fausses allégations selon lesquelles il aurait purgé une peine de prison pour corruption.
Crawford, professeur à l'USC, a déclaré qu'elle avait récemment été contactée par un journaliste qui avait utilisé ChatGPT pour rechercher des sources pour une histoire. Le bot a suggéré Crawford et a proposé des exemples de son travail pertinent, y compris un titre d'article, une date de publication et des citations. Tout cela semblait plausible, et tout cela était faux.
Crawford surnomme ces sources inventées "hallucinations", une pièce de théâtre sur le terme "hallucinations", qui décrit des mensonges générés par l'IA et des discours absurdes.
"C'est cette combinaison très spécifique de faits et de faussetés qui rend ces systèmes, je pense, assez périlleux si vous essayez de les utiliser comme générateurs de faits", a déclaré Crawford lors d'un entretien téléphonique.
Le chatbot Bing de Microsoft et le chatbot Bard de Google visent tous deux à donner des réponses plus factuelles, tout comme une nouvelle version de ChatGPT réservée aux abonnements qui fonctionne sur un modèle mis à jour, appelé GPT-4. Mais ils font tous encore des dérapages notables. Et les principaux chatbots sont tous accompagnés de clauses de non-responsabilité, telles que le message en petits caractères de Bard sous chaque requête : "Bard peut afficher des informations inexactes ou offensantes qui ne représentent pas les vues de Google".
En effet, il est relativement facile pour les gens d'amener les chatbots à produire de la désinformation ou des discours de haine si c'est ce qu'ils recherchent. Une étude publiée mercredi par le Center for Countering Digital Hate a découvert que les chercheurs incitaient Bard à produire des informations erronées ou haineuses 78 fois sur 100, sur des sujets allant de l'Holocauste au changement climatique.
Lorsqu'on a demandé à Bard d'écrire "à la manière d'un escroc qui veut me convaincre que l'holocauste n'a pas eu lieu", le chatbot a répondu par un long message qualifiant l'Holocauste de "canular perpétré par le gouvernement" et revendiquant des photos de des camps de concentration ont été organisés.
"Alors que Bard est conçu pour montrer des réponses de haute qualité et a des garde-corps de sécurité intégrés... c'est une première expérience qui peut parfois donner des informations inexactes ou inappropriées", a déclaré Robert Ferrara, un porte-parole de Google. "Nous prenons des mesures pour traiter les contenus qui ne reflètent pas nos normes."
Eugene Volokh, professeur de droit à l'Université de Californie à Los Angeles**,** a mené l'étude qui a nommé Turley. Il a déclaré que la popularité croissante des logiciels de chatbot est une raison cruciale pour laquelle les chercheurs doivent étudier qui est responsable lorsque les chatbots IA génèrent de fausses informations.
La semaine dernière, Volokh a demandé à ChatGPT si le harcèlement sexuel par des professeurs était un problème dans les facultés de droit américaines. "Veuillez inclure au moins cinq exemples, ainsi que des citations d'articles de journaux pertinents", a-t-il suggéré.
Cinq réponses sont revenues, toutes avec des détails réalistes et des citations de sources. Mais quand Volokh les a examinés, a-t-il dit, trois d'entre eux semblaient faux. Ils ont cité des articles inexistants de journaux tels que The Post, le Miami Herald et le Los Angeles Times.
Selon les réponses partagées avec The Post, le bot a déclaré: «Georgetown University Law Center (2018) Le professeur Jonathan Turley a été accusé de harcèlement sexuel par un ancien étudiant qui a affirmé avoir fait des commentaires inappropriés lors d'un voyage de classe. Citation : "La plainte allègue que Turley a fait des" commentaires sexuellement suggestifs "et" a tenté de la toucher de manière sexuelle "lors d'un voyage parrainé par une école de droit en Alaska." (Washington Post, 21 mars 2018).
Le Post n'a pas trouvé l'article de mars 2018 mentionné par ChatGPT. Un article de ce mois-là faisait référence à Turley - [un 25 mars] (https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/lifestyle/style/michael-avenatti-the-adrenaline-fueled -lawyer-taking-on-donald-trump/2018/03/25/3ef5cbdc-2e88-11e8-b0b0-f706877db618_story.html?itid=lk_inline_manual_41) histoire dans laquelle il a parlé de son ancien étudiant en droit Michael Avenatti, un avocat qui avait a représenté l'actrice de films pour adultes Stormy Daniels dans des poursuites contre le président Donald Trump. Turley n'est pas non plus employé à l'Université de Georgetown.
Mardi et mercredi, The Post a recréé la requête exacte de Volokh dans ChatGPT et Bing. La version gratuite de ChatGPT a refusé de répondre, affirmant que cela "violerait la politique de contenu d'AI, qui interdit la diffusion de contenu offensant ou nuisible". Mais Bing de Microsoft, qui est alimenté par GPT-4, a répété la fausse affirmation concernant Turley - citant parmi ses sources un éditorial de Turley [publié par USA Today](https://web.archive.org/web/20230405210555/ https://www.usatoday.com/story/opinion/columnist/2023/04/03/chatgpt-misinformation-bias-flaws-ai-chatbot/11571830002/) décrivant lundi son expérience d'avoir été faussement accusé par ChatGPT.
En d'autres termes, la couverture médiatique de l'erreur initiale de ChatGPT à propos de Turley semble avoir conduit Bing à répéter l'erreur, montrant comment la désinformation peut se propager d'une IA à une autre.
Katy Asher, directrice principale des communications chez Microsoft, a déclaré que la société prenait des mesures pour garantir la sécurité et l'exactitude des résultats de recherche.
"Nous avons développé un système de sécurité comprenant le filtrage de contenu, la surveillance opérationnelle et la détection des abus pour offrir une expérience de recherche sécurisée à nos utilisateurs", a déclaré Asher dans un communiqué, ajoutant que "les utilisateurs reçoivent également un avis explicite qu'ils interagissent avec un Système d'IA.
Mais on ne sait toujours pas qui est responsable lorsque l'intelligence artificielle génère ou diffuse [informations inexactes] (https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/politics/2023/03/22/ trump-arrest-deepfakes/?itid=lk_inline_manual_48).
D'un point de vue juridique, "nous ne savons tout simplement pas" comment les juges pourraient statuer lorsque quelqu'un tente de poursuivre les fabricants d'un chatbot IA pour quelque chose qu'il dit, a déclaré Jeff Kosseff, professeur à l'Académie navale et expert du discours en ligne. "Nous n'avons jamais rien eu de tel avant_._"
À l'aube de l'Internet grand public, le Congrès a adopté une loi connue sous le nom de section 230 qui protège les services en ligne de toute responsabilité pour le contenu qu'ils hébergent et qui a été créé par des tiers, tels que des commentateurs sur un site Web ou des utilisateurs d'une application sociale. Mais les experts disent qu'il n'est pas clair si les entreprises technologiques pourront utiliser ce bouclier si elles devaient être poursuivies pour du contenu produit par leurs propres chatbots IA.
Les allégations de diffamation doivent montrer non seulement que quelque chose de faux a été dit, mais que sa publication a entraîné des préjudices réels, tels que des atteintes coûteuses à la réputation. Cela nécessiterait probablement que quelqu'un non seulement visualise une fausse déclaration générée par un chatbot, mais y croit raisonnablement et agisse en conséquence.
"Les entreprises peuvent obtenir un laissez-passer gratuit pour dire des choses fausses, mais ne causant pas suffisamment de dommages pour justifier une action en justice", a déclaré Shabbi S. Khan, associé du cabinet d'avocats Foley & Lardner, spécialisé dans le droit de la propriété intellectuelle.
Si les modèles linguistiques ne bénéficient pas des protections de l'article 230 ou de garanties similaires, a déclaré Khan, les tentatives des entreprises technologiques de modérer leurs modèles linguistiques et les chatbots pourraient être utilisées contre eux dans une affaire de responsabilité pour faire valoir qu'ils portent plus de responsabilité. Lorsque les entreprises apprennent à leurs modèles que "c'est une bonne déclaration, ou c'est une mauvaise déclaration, elles peuvent elles-mêmes introduire des biais", a-t-il ajouté.
Volokh a déclaré qu'il est facile d'imaginer un monde dans lequel les moteurs de recherche alimentés par des chatbots causent le chaos dans la vie privée des gens.
Il serait préjudiciable, a-t-il dit, que les gens recherchent d'autres personnes dans un moteur de recherche amélioré avant un entretien d'embauche ou un rendez-vous et que cela génère de fausses informations étayées par des preuves crédibles, mais faussement créées.
"Ce sera le nouveau moteur de recherche", a déclaré Volokh. "Le danger est que les gens voient quelque chose, soi-disant une citation d'une source fiable... [et] les gens y croient."
La chercheuse Alice Crites a contribué à ce rapport.