Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4831

Incidents associés

Incident 96011 Rapports
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Loading...
Échec de l'IA : les avocats de Morgan & Morgan citent 8 cas fictifs, grâce à un chatbot | Commentaire
orlandosentinel.com · 2025

Si vous avez des doutes sur le pouvoir et les pièges de l’intelligence artificielle, j’ai une affaire judiciaire qui vous fait frémir.

Il s’agit du célèbre cabinet d’avocats Morgan & Morgan qui a déposé un mémoire juridique citant neuf cas comme précédents qui auraient soi-disant aidé son client.

Le problème : huit de ces cas étaient complètement fictifs. Ils n’existent tout simplement pas.

Il s’avère qu’un membre de l’équipe juridique de Morgan & Morgan, basé à Orlando, s’est appuyé sur l’intelligence artificielle pour l’aider à rédiger son dossier juridique. Et lorsque le chatbot est allé chercher de la jurisprudence qui pourrait l’aider, il l’a apparemment inventée. L’industrie technologique appelle ces mensonges détaillés générés par l’IA des « hallucinations ».

Parlons d’une véritable intelligence « artificielle ».

Non seulement le chatbot a inventé des plaignants et des défendeurs – comme l’État du Wyoming contre le ministère américain de l’Énergie – mais il a également fabriqué des dates et même des numéros de dossiers. C’est un jeu de hasard incroyablement précis.

J’ai demandé au fondateur du cabinet, John Morgan, comment une telle chose s’était produite.

Sa réponse : « L’un de nos avocats s’est appuyé uniquement sur l’IA et a fait une erreur. »

Sauf qu’il n’a pas dit « a fait une erreur. »

Je pense qu’il est prudent de dire que John a formulé cette déclaration sans aucune aide de l’IA.

Le cabinet a dit essentiellement la même chose dans des documents où il a essentiellement fait un mea culpa à gorge déployée et s’est jeté à la merci du tribunal.

« Ce dossier profondément regrettable est une dure leçon pour moi et notre cabinet alors que nous entrons dans un monde dans lequel l’intelligence artificielle devient de plus en plus étroitement liée à la pratique quotidienne », a écrit l’avocat principal de l’affaire, le fils de John, Mike, dans un document déclaratoire. « Bien que l’intelligence artificielle soit un outil puissant, c’est un outil qui doit être utilisé avec précaution. Il n’y a pas de raccourcis en droit. C’est avec la plus profonde humilité que je présente mes excuses au tribunal et à l’avocat adverse en mon nom et au nom de notre cabinet. »

Le drame juridique qui se déroule dans une salle d’audience du Wyoming n’a pas encore reçu beaucoup d’attention dans les médias grand public. Mais dans les cercles juridiques et technologiques, c’est la folie.

« Les avocats font face à la colère du juge après que l’IA a cité des cas inventés dans un procès enflammé sur hoverboard », a hurlé le site d’actualités technologiques, The Register.

« L’échec de ChatGPT d’un grand cabinet d’avocats. Pourquoi n’est-il pas si difficile de citer de faux cas ? », a demandé l’analyste juridique David Lat au Original Jurisdiction substack.

C’est une bonne question. Et elle fournit un récit édifiant pour ceux qui se précipitent tête baissée pour prendre des raccourcis et s’appuyer sur un cerveau autre que le leur.

L’affaire concerne un client de Morgan qui poursuit un fabricant d’hoverboards et la chaîne Walmart qui a vendu un hoverboard qui aurait pris feu. Lorsque les avocats de Walmart ont essayé de vérifier la multitude de précédents juridiques cités par l’équipe de Morgan, ils ont découvert que la plupart d’entre eux n’existaient pas.

Je crois que le terme juridique pour cela est ex post malarkey-o.

Sans surprise, le juge n’a pas été amusé et a demandé à l’équipe de Morgan de s’expliquer.

C’est alors qu’un avocat de Morgan du sud de la Floride, Rudwin Ayala, ‘a avoué et pris ses responsabilités, en déclarant que sa confiance dans les cas générés par l’IA « était déplacée » et qu’il « n’a pas vérifié » les informations.

« Avec un cœur repentant, je m’excuse sincèrement auprès de ce tribunal, de mon cabinet et de mes collègues représentant les défendeurs pour cette erreur et tout embarras que j’ai pu causer », a écrit Ayala dans son dossier du 13 février. « La semaine dernière a été très humiliante pour moi sur le plan professionnel et personnel, une semaine qui, je peux vous le garantir, ne se répétera jamais. »

Le juge a semblé apprécier la franchise et la contrition. Alors que le juge de district américain Kelly Rankin a décidé lundi qu’Ayala ne pouvait plus travailler sur l’affaire, il n’a infligé qu’une amende de 1 000 $ à Morgan et à l’autre avocat superviseur impliqué, donnant au cabinet le mérite d’avoir fait la lumière, de s’être excusé et d’avoir proposé de payer les frais de l’avocat adverse. Le juge a noté que les avocats qui avaient été surpris en train de citer d’autres faux cas générés par l’IA n’avaient pas fait de même.

Oui, c’est vrai – d’autres cas. Ce n’est malheureusement pas une première. Dans une affaire de 2023, un avocat représentant un homme qui poursuivait la compagnie aérienne Avianca a également déposé un mémoire juridique citant une affaire fictive inventée par ChatGPT. Lorsque l’agence de presse Reuters a interrogé des avocats, elle a découvert que près des deux tiers d’entre eux ont déclaré s’être tournés vers l’IA pour obtenir de l’aide.

D’après mon expérience personnelle, beaucoup de personnes qui comptent sur l’IA le font fièrement et suggèrent souvent que ceux qui ne le font pas sont des idiots.

Peut-être. Mais ceux d’entre nous qui ne se fient pas à l’IA pour obtenir des faits (ni à une publication Facebook, ni aux commentaires d’un proche, d’ailleurs) ne se retrouveront jamais à essayer d’expliquer des informations bidon fournies de manière autoritaire par quelqu’un d’autre.

L’une des choses les plus effrayantes dans cette histoire est que lorsque moi et d’autres avons demandé à un chatbot plus de détails sur les fausses affaires, le chatbot a également « halluciné » ces détails.

Oui, si vous demandez à l’IA de vous parler d’un mensonge, elle peut générer des mensonges plus complexes, comme les noms de vrais juges qui auraient présidé ces affaires qui n’ont jamais eu lieu.

Nous savons tous que l’un des plus gros problèmes avec les mensonges est que les gens qui en disent un finissent souvent par inventer beaucoup plus pour justifier le premier. Eh bien, ce n’est apparemment pas seulement un problème pour les humains, mais aussi pour la technologie qui était censée nous surpasser. C’est une bonne raison de vérifier tout ce que vous entendez.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd