Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6295

Incidents associés

Incident 12472 Rapports
Meta AI Reportedly Generated Purportedly False Claims Linking Activist Robby Starbuck to January 6th Riot, Prompting Defamation Lawsuit

Loading...
L'activiste Robby Starbuck poursuit Meta pour des réponses d'IA à son sujet
wsj.com · 2025

Robby Starbuck, militant conservateur, a porté plainte en diffamation contre Meta, alléguant que son outil d'intelligence artificielle l'avait diffamé en affirmant faussement qu'il avait participé à l'émeute du 6 janvier 2021 au Capitole des États-Unis.

Starbuck affirme avoir découvert le problème l'été dernier alors qu'il menait une campagne en ligne pour inciter Harley-Davidson à modifier ses politiques de diversité, d'équité et d'inclusion (DEI). Un concessionnaire Harley du Vermont a riposté en publiant sur X, le 5 août, une capture d'écran censée contenir une réponse de Meta AI affirmant que Starbuck était présent à l'émeute du Capitole et qu'il était lié à QAnon. Starbuck a nié les allégations le jour même et a répondu sur les réseaux sociaux : « Meta aura des nouvelles de mes avocats. » Il affirme que Meta AI continuait de formuler les mêmes allégations non prouvées à son encontre des mois plus tard et qu'il avait porté plainte.

Sa plainte, déposée mardi devant la Cour supérieure du Delaware, réclame plus de 5 millions de dollars de dommages et intérêts.

« On commence à se demander jusqu'où cela va aller », a déclaré Starbuck lors d'une interview. Il s'est dit inquiet de la manière dont l'IA pourrait être utilisée pour déterminer la solvabilité, le risque d'assurance ou la réputation globale.

Un porte-parole de Meta a déclaré : « Dans le cadre de nos efforts continus pour améliorer nos modèles, nous avons déjà publié des mises à jour et nous continuerons de le faire. »

Starbuck rejoint ainsi la liste restreinte de plaignants qui tentent de tenir les entreprises d'IA responsables des informations fausses et préjudiciables à leur réputation générées par de grands modèles linguistiques. Aucun tribunal américain n'a accordé de dommages et intérêts à une personne diffamée par un chatbot IA.

L'année dernière, un juge géorgien du comté de Gwinnett a autorisé la poursuite d'une action en diffamation contre OpenAI après avoir rejeté la requête en irrecevabilité du créateur de ChatGPT.

Dans cette affaire, l'animateur radio conservateur Mark Walters affirme que ChatGPT l'a accusé d'avoir détourné des fonds d'une organisation de défense du droit aux armes à feu.

Le juge a entendu les arguments relatifs à la requête en jugement sommaire d'OpenAI en avril. Pour sa défense, OpenAI a souligné la fréquence à laquelle elle avertit les utilisateurs de l'inexactitude potentielle des résultats de ChatGPT et affirme que Walters n'a jamais alerté OpenAI de l'erreur présumée ni demandé de rétractation avant de déposer sa plainte.

Microsoft en 2023 a été poursuivi par un homme qui affirmait que son moteur de recherche Bing et son chatbot IA l'avaient confondu avec un terroriste condamné portant un nom similaire. Un juge fédéral du Maryland a mis fin au litige en octobre 2024, ordonnant au plaignant de poursuivre ses actions en arbitrage contre Microsoft.

Microsoft et OpenAI ont refusé de commenter au-delà de leurs documents judiciaires.

Le militant conservateur Robby Starbuck a revendiqué le succès en incitant 15 entreprises cotées en bourse à modifier ou abandonner leurs politiques DEI et LGBTQ. Le WSJ a rendu visite à Starbuck à son domicile du Tennessee pour découvrir les coulisses de son travail et de celui de son équipe. Photo : Alexander Hotz

Les réseaux sociaux et autres sites internet ne peuvent généralement pas être tenus responsables des publications de leurs utilisateurs. Cependant, les juristes affirment que cette protection juridique, prévue par une loi fédérale connue sous le nom de Section 230, ne couvre pas les réponses de type humain produites par des programmes d'IA automatisés en réponse aux sollicitations des utilisateurs. Clare Norins, directrice de la Clinique du Premier Amendement de la Faculté de Droit de l'Université de Géorgie, a déclaré qu'elle ne pensait pas que les entreprises d'IA puissent se contenter de clauses de non-responsabilité mettant en garde les utilisateurs quant à leur fiabilité factuelle.

« Ce n'est pas une assurance contre les poursuites en diffamation », a-t-elle déclaré.

Mais pour établir leur responsabilité, les plaignants doivent au moins démontrer la négligence de personnes réelles.

« Si l'entreprise d'IA est informée que le programme d'IA hallucine une fausse déclaration concernant quelqu'un et que rien n'est fait pour corriger cela, la diffamation est plus solide », a déclaré Norins.

L'année dernière, lorsque Starbuck a appris ce que l'outil d'IA de Meta disait à son sujet, il a utilisé X pour demander aux dirigeants de Meta, dont le PDG Mark Zuckerberg, de supprimer les informations inexactes. Starbuck a déclaré que son avocat avait envoyé à l'entreprise une mise en demeure.

Starbuck a déclaré qu'il se trouvait dans son État d'origine, le Tennessee, le 6 janvier 2021. Son équipe de recherche, un groupe habitué à déterrer des informations sur les politiques des entreprises auxquelles elle s'oppose, a tenté de trouver la source des informations divulguées par Meta à propos du 6 janvier, mais n'a rien trouvé, a déclaré Starbuck dans une interview.

Quelques jours plus tard, un avocat de Meta a déclaré à l'avocate de Starbuck, Krista Baughman, que « Meta prend au sérieux les affirmations énoncées dans votre lettre et qu'une enquête à leur sujet est en cours », selon la plainte.

Meta AI a continué d'affirmer que Starbuck était entré au Capitole le 6 janvier, selon la plainte. Starbuck et son équipe juridique ont interrogé d'autres outils d'IA pour obtenir des informations similaires, mais Grok, de ChatGPT et xAI, a affirmé que Starbuck n'était pas présent à l'émeute et que cette déclaration inexacte provenait d'une désinformation de Meta AI, selon la plainte.

Ce mois-ci, Meta AI a rendu plus difficile la recherche d'informations sur Starbuck. L'outil d'IA a répondu aux questions directes le concernant par : « Désolé, je ne peux pas vous aider pour le moment », selon la plainte et les vérifications du Wall Street Journal.

La plainte de Starbuck affirme que la fonction vocale de Meta AI générait encore de fausses informations le concernant ce mois-ci, affirmant qu'il avait plaidé coupable de trouble à l'ordre public en lien avec l'émeute du Capitole et de négationnisme.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd