Incidents associés
Michael Cohen, ancien avocat de Donald Trump, a avoué avoir donné par erreur à son avocat des citations de cas incorrectes créées par le chatbot d'intelligence artificielle (IA) Google Bard.
Lors d'un récent procès dépôt, Cohen, qui devrait être un témoin contre Trump dans [ses prochains procès pénaux](https : //cointelegraph.com/news/former-us-president-donald-trump-launches-mugshot-themed-nft-drop), a admis avoir envoyé des citations juridiques générées par Google Bard à son avocat, David Schwartz, à l'appui de son cas. .
"Les citations invalides en cause - et bien d'autres que M. Cohen a trouvées mais n'ont pas été utilisées dans la requête - ont été produites par Google Bard, que M. Cohen a compris à tort comme étant un moteur de recherche suralimenté et non une IA générative. service comme Chat-GPT."

États-Unis c. Michael Cohen. Source : Reuters
Cependant, il a été avancé que Cohen n'est pas un professionnel du droit actif et qu'il transmettait uniquement les informations à son avocat, suggérant que les informations auraient dû être examinées avant d'être incluses dans les documents judiciaires officiels.
"M. Cohen n'est pas un avocat en exercice et n'a aucune idée des risques liés à l'utilisation des services d'IA pour la recherche juridique, et il n'a pas non plus l'obligation éthique de vérifier l'exactitude de ses recherches", indique en outre le communiqué, réitérant qu'un examen plus approfondi était nécessaire. :
"Pour résumer : M. Cohen a fourni à M. Schwartz des citations (et des résumés de cas) qu'il avait trouvées en ligne et qu'il croyait être réelles. M. Schwartz les a ajoutées à la requête mais n'a pas vérifié ces citations ou résumés."
Connexe : Les recherches sur « IA » sur Google écrasent Bitcoin et crypto cette année
Ce n’est pas la première fois qu’un avocat est dénoncé pour s’être appuyé sur l’IA, pour ensuite se rendre compte qu’elle a généré des résultats inexacts.
Plus tôt cette année, Cointelegraph a rapporté que Steven Schwartz, avocat du cabinet d'avocats new-yorkais Levidow, Levidow & Oberman, [a été critiqué pour avoir utilisé l'IA](https://cointelegraph.com/news/lawyer-chat-gpt-court- dépôt-recherche-juridique) pour créer ce qui s'est avéré être de fausses citations judiciaires.
Bien que Schwartz ait affirmé que c'était la première fois qu'il utilisait ChatGPT pour des recherches juridiques, le juge l'a vivement critiqué pour ses inexactitudes.
"Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", a déclaré le juge.