Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4828

Incidents associés

Incident 96011 Rapports
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Loading...
Les avocats admettent que l'IA a « halluciné » des affaires dans une requête déposée contre Walmart
5newsonline.com · 2025

WYOMING, USA — Les avocats représentant une famille du Wyoming dans un procès contre Walmart et Jetson Electric Bikes ont admis avoir utilisé l'intelligence artificielle pour générer une requête préliminaire après qu'un juge fédéral a déclaré que presque tous les cas qu'ils ont cités étaient inexistants, selon les dossiers judiciaires.

La juge Kelly Rankin a déclaré que le langage utilisé dans la requête préliminaire des plaignants et dans les huit cas non identifiables qui ont été cités l'a amenée à croire que l'IA avait été utilisée pour rédiger les documents judiciaires. Les avocats de la défense ont soupçonné que la requête avait été rédigée à l'aide de ChatGPT après avoir découvert certains des faux cas sur la plateforme d'IA, indique le dossier.

Le 6 février, le juge a ordonné aux avocats — Rudwin Ayala et T. Michael Morgan de Morgan & Morgan et Taly Goody de Goody Law Group — d'expliquer comment la requête a été créée et pourquoi ils ne devraient pas être sanctionnés. Dans leur réponse du 10 février, les avocats ont admis que les cas présentés « n'étaient pas légitimes » et avaient été « hallucinés » par la plateforme d'IA interne du cabinet.

« Cette affaire est très embarrassante et a suscité des discussions et des actions concernant la formation, la mise en œuvre et l’utilisation future de l’intelligence artificielle au sein de notre entreprise », indique le dossier. « Cela sert d’avertissement pour notre entreprise et toutes les entreprises, alors que nous entrons dans cette nouvelle ère de l’intelligence artificielle. »

L’affaire découle d’un procès intenté par une famille du Wyoming en juillet 2023, affirmant qu’un hoverboard qu’elle avait acheté chez Walmart avait mal fonctionné et provoqué un incendie qui a détruit leur maison en février 2022. La famille, dont quatre enfants, affirme avoir subi de graves brûlures et un traumatisme émotionnel. Ils accusent Walmart et Jetson de négligence et de rupture de garantie pour avoir vendu un produit défectueux qui n’était pas aussi sûr que celui annoncé.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd