Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3522

Incidents associés

Incident 62312 Rapports
Google Bard Allegedly Generated Fake Legal Citations in Michael Cohen Case

Loading...
Michael Cohen a utilisé de faux cas créés par AI pour tenter de mettre fin à sa probation
washingtonpost.com · 2023

Michael Cohen, ancien fixateur et avocat de l'ancien président Donald Trump, a déclaré dans un nouveau dossier judiciaire qu'il avait sans le savoir donné à son avocat un faux dossier. citations après avoir utilisé l’intelligence artificielle pour les créer dans le cadre d’une tentative légale visant à mettre fin à sa probation pour évasion fiscale et violation du financement de campagne.

Selon le filing, qui a été descellé vendredi, Cohen a déclaré avoir utilisé Google Bard, un chatbot IA, pour générer des citations de cas que son avocat pourrait utiliser pour l'aider à plaider en faveur d'une libération surveillée plus courte. Il a plaidé coupable des crimes en 2018 et a purgé une peine de prison.

Cohen a déclaré qu'il avait remis ces citations à l'un de ses avocats, David M. Schwartz, qui les avait ensuite utilisées dans une requête déposée auprès d'un juge fédéral américain au nom de Cohen, selon le dossier.

L'aveu de Cohen intervient après que le juge de district américain Jesse Furman du district sud de New York a déclaré [dans une ordonnance du 12 décembre](https://storage.courtlistener.com/recap/gov.uscourts.nysd.499666/gov.uscourts. nysd.499666.96.0.pdf) qu'il n'a trouvé aucun des trois cas cités par Schwartz et a demandé une "explication approfondie" de la manière dont ces cas ont été inclus et "quel rôle, le cas échéant", Cohen a pu jouer dans la requête avant son dépôt.

Dans le dossier, Cohen a écrit qu'il n'avait pas suivi « les tendances émergentes (et les risques associés) en matière de technologie juridique et qu'il n'avait pas réalisé que Google Bard était un service de texte génératif qui, comme ChatGPT, pouvait afficher des citations et des descriptions qui semblaient réelles mais en fait, ce n’était pas le cas. » Pour lui, dit-il, Google Bard semblait être un « moteur de recherche suralimenté ».

Cohen a ajouté qu'à aucun moment Schwartz ou son parajuriste n'a « soulevé de préoccupations concernant les citations » qu'il avait suggérées. "Il ne m'est pas venu à l'esprit à l'époque - et cela me surprend encore aujourd'hui - que M. Schwartz ait déposé les dossiers en bloc sans même confirmer leur existence", a écrit Cohen.

Schwartz n'a pas immédiatement répondu à une demande de commentaire.

L’épisode survient alors que Cohen devrait jouer un rôle de premier plan dans une affaire pénale contre Trump à Manhattan. C'est également une indication de à quel point l'IA devient courante dans le travail juridique, alors qu’une nouvelle génération d’outils linguistiques d’IA fait son chemin dans le secteur juridique.

Selon le dossier de Cohen, l'erreur a été détectée par E. Danya Perry, un ancien procureur fédéral qui représente désormais Cohen dans ses efforts pour écourter sa probation. Cohen a déclaré que Schwartz avait commis une « erreur honnête » et Perry a fourni des citations de cas réels qui expliquent pourquoi la probation de Cohen devrait être terminée.

C'est au moins la deuxième fois cette année qu'un juge fédéral de Manhattan confronte des avocats pour avoir utilisé de fausses citations générées par l'IA. En juin, deux avocats ont été condamnés à une amende de 5 000 $ dans une affaire sans rapport dans laquelle ils ont utilisé ChatGPT pour créer de fausses citations de cas.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd