Incidents associés
Michael Cohen, l'ancien avocat de Donald Trump, a admis avoir cité de fausses affaires judiciaires générées par l'IA dans un document juridique qui s'est retrouvé devant un juge fédéral, [tel que rapporté plus tôt par The New York Times](https://www .nytimes.com/2023/12/29/nyregion/michael-cohen-ai-fake-cases.html). Un dépôt non scellé vendredi indique que Cohen a utilisé Bard de Google pour effectuer des recherches après une erreur. il s'agit d'un « moteur de recherche suralimenté » plutôt que d'un chatbot IA.
Le document en question était une motion demandant à un juge fédéral de raccourcir la durée de la probation de trois ans de Cohen, à laquelle il fait maintenant face après une peine de prison et [un plaidoyer de culpabilité pour évasion fiscale](https://apnews.com/article/ amérique du nord-donald-trump-us-news-ap-top-news-michael-cohen-74aaf72511d64fceb1d64529207bde64) et d'autres accusations. Mais après avoir examiné la lettre, le juge de district américain Jesse Furman a écrit dans un dossier qu'« aucune de ces affaires n'existe » et a demandé à l'avocat de Cohen, David Schwartz, d'expliquer pourquoi les trois affaires sont incluses dans la requête et si son client, désormais radié du barreau, a contribué à sa rédaction.
En réponse, Cohen a soumis une déclaration écrite affirmant qu’il n’avait pas l’intention d’induire le tribunal en erreur, ajoutant qu’il avait utilisé Google Bard pour effectuer des recherches juridiques et qu’il avait envoyé certaines de ses conclusions à Schwartz. Cependant, Cohen dit qu'il n'avait pas réalisé que les cas cités par Bard pouvaient être faux, et il ne pensait pas non plus que Schwartz ajouterait les citations à la motion « sans même confirmer qu'elles existaient ». Schwartz risque des sanctions potentielles pour avoir inclus les fausses citations.
« En tant que non-avocat, je n'ai pas suivi les tendances émergentes (et les risques associés) en matière de technologie juridique et je ne savais pas que Google Bard était un service de texte génératif qui, comme Chat-GPT, pouvait afficher des citations et des descriptions qui semblaient réelles mais qui semblaient réelles. en fait, ce n’était pas le cas », écrit Cohen. "Au lieu de cela, j'ai compris qu'il s'agissait d'un moteur de recherche surpuissant et je l'avais utilisé à plusieurs reprises dans d'autres contextes pour trouver (avec succès) des informations pr écises en ligne."
Ce n’est pas la première fois que des citations générées par l’IA apparaissent devant les tribunaux. En juin, deux avocats new-yorkais ont été sanctionnés et condamné à une amende de 5 000 $ après avoir inclus de fausses affaires judiciaires générées par ChatGPT dans une procédure judiciaire bref. Certains avocats utilisent même l'IA pour rédiger leurs arguments, dont l'équipe juridique du rappeur Pras Michél, qui demande désormais un nouveau procès après avoir obtenu un verdict de culpabilité.