Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4823

Incidents associés

Incident 96011 Rapports
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Loading...
Un juge inflige une amende aux avocats dans le cadre d'un procès contre Walmart pour de fausses affaires générées par l'IA
reuters.com · 2025

25 février (Reuters) - Trois avocats poursuivant Walmart pour préjudice corporel doivent payer des amendes totalisant 5 000 dollars pour avoir cité de faux cas générés par l'intelligence artificielle dans un dossier judiciaire, a décidé un juge fédéral.

Les avocats, dont deux du cabinet national Morgan & Morgan et un d'un cabinet plus petit, avaient l'obligation éthique de s'assurer que les cas qu'ils citent étaient réels, a déclaré lundi le juge de district américain Kelly Rankin dans le Wyoming dans son ordonnance de sanctions, ouvre un nouvel onglet.

"Alors que les avocats font la transition vers le monde de l'IA, le devoir de vérifier leurs sources et de faire une enquête raisonnable sur la loi existante reste inchangé", a écrit Rankin.

Au cours des deux dernières années, les juges de tout le pays ont interrogé ou sanctionné un nombre croissant d'avocats pour avoir inclus des cas et des citations générés par l'IA dans des documents judiciaires. Des exemples ont surgi dans au moins neuf procès depuis que des chatbots comme ChatGPT ont inauguré l'ère de l'IA, mettant en évidence un nouveau risque de litige.

Rankin a infligé une amende de 3 000 $ à Rudwin Ayala de Morgan & Morgan, qui s'est excusé plus tôt ce mois-ci et a déclaré avoir utilisé un programme d'IA interne qui a « halluciné » les cas, qu'il a incorporé dans un dossier dans l'affaire.

Le juge a également retiré Ayala du procès et a imposé des amendes de 1 000 $ chacun à T. Michael Morgan et à l'avocat local Taly Goody de Goody Law Group pour ne pas avoir fait assez pour garantir l'exactitude du dossier rédigé par Ayala.

Ayala, Morgan et un représentant de Morgan & Morgan n'ont pas immédiatement répondu aux demandes de commentaires mardi. Morgan est le fils du fondateur de Morgan & Morgan, John Morgan, selon des rapports de presse antérieurs.

Goody a déclaré dans un courriel qu'elle n'avait pas reçu le dossier à examiner avant qu'il ne soit soumis, et a souligné une explication antérieure qu'elle avait fournie au tribunal.

Walmart a refusé de commenter. Il a nié les allégations du procès sous-jacent, qui accuse le détaillant d'avoir vendu un jouet hoverboard défectueux qui aurait pris feu et brûlé la maison des plaignants. L'affaire devrait être jugée le mois prochain.

En décidant des sanctions, le juge a déclaré avoir pris en compte le fait que les avocats « ont été informés » de la capacité de l'IA générative à halluciner les cas. Il a déclaré que « l'honnêteté et la franchise » d'Ayala et les mesures prises par Morgan & Morgan pour éviter de futurs incidents ont contribué à une sanction moins sévère.

« Lorsqu'elle est bien utilisée, l'IA peut être incroyablement bénéfique pour les avocats et le public », a écrit Rankin. « Le cas présent est simplement le dernier rappel à ne pas se fier aveuglément aux citations des plateformes d'IA, quelle que soit la profession. »

Dans une autre affaire, un juge fédéral de l'Indiana a recommandé la semaine dernière une amende de 15 000 $ pour un avocat qui avait soumis trois mémoires contenant des citations de cas inexistantes générées par l'IA et l'a renvoyé devant le juge en chef pour une éventuelle sanction supplémentaire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd