Incidents associés

Un avocat de New York est dans l'eau chaude pour avoir soumis un dossier juridique avec des références à des cas qui ont été constitués par [ChatGPT](https://www.pcmag.com/how-to/what-is-chatgpt-ai-phenomenon- qui-semble-presque-humain).
Comme The New York Times [reports(Opens in a new window)](https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp= cur), Steven Schwartz, de Levidow, Levidow et Oberman, a soumis six fausses décisions judiciaires dans un mémoire de 10 pages alors qu'il représentait un plaignant qui poursuivait la compagnie aérienne colombienne Avianca en raison d'une blessure subie lors d'un vol.
Le mémoire, qui expliquait pourquoi la poursuite devait aller de l'avant, citait de faux cas qui avaient été entièrement inventés par ChatGPT et que Schwartz n'avait pas vérifié.
Dans un affidavit(ouvre dans une nouvelle fenêtre), Schwartz a admis avoir utilisé ChatGPT lors de ses recherches pour le brief, et accepté la responsabilité de ne pas vérifier les sources du chatbot AI.
Schwartz a déclaré qu'il "ignorait la possibilité que son contenu puisse être faux" et a affirmé qu'il "regrette profondément d'avoir utilisé l'intelligence artificielle générative pour compléter les recherches juridiques effectuées ici et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité. ”
Cela est venu après que le juge de district américain Kevin Castel a écrit dans une [ordonnance du 4 mai(ouvre dans une nouvelle fenêtre)](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd. 575368.31.0.pdf) : "Le tribunal est confronté à une circonstance sans précédent... Six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes."
L'affidavit contenait des captures d'écran de l'avocat informé par ChatGPT que les cas qu'il fournissait étaient réels et pouvaient être trouvés sur n'importe quelle "base de données juridique réputée". Les captures d'écran montrent également Schwartz demandant au chatbot AI la source d'un faux cas : Varghese contre China Southern Airlines.
ChatGPT a répondu : « Je m'excuse pour la confusion de tout à l'heure. Après vérification, j'ai découvert que l'affaire Varghese c. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), existe bel et bien et peut être trouvée sur des bases de données de recherche juridique telles que Westlaw et LexisNexis. Je m'excuse pour tout inconvénient ou confusion que mes réponses précédentes ont pu causer.
Comme le note le Times, Schwartz doit maintenant faire face à une audience sur les sanctions le 8 juin.
La saga est la dernière d'une série d'incidents de chatbots d'IA diffusant des informations erronées. De longues conversations avec Bing de Microsoft ont permis au chatbot de présenter certaines tactiques de manipulation telles que l'éclairage au gaz, tandis que Bard, le chatbot IA de Google, racontait des mensonges à propos du télescope spatial James Webb lors de ses débuts.