Incidents associés

La [propension à inventer] de ChatGPT (https://arstechnica.com/information-technology/2023/04/why-ai-chatbots-are-the-ultimate-bs-machines-and-how-people-hope-to -fix-them/) frappe à nouveau - et cette fois, un avocat est en grande difficulté.
Comme décrit dans un affidavit de début mai, un avocat représentant un homme poursuivant un compagnie aérienne pour une blessure présumée a admis avoir utilisé le chatbot AI pour faire des recherches sur le cas de son client. C'est pourquoi, dans son mémoire juridique, il a cité un tas d'affaires judiciaires - toutes avec des noms à consonance officielle comme "Martinez contre Delta Air Lines" et "Varghese contre China Southern Airlines" - qui ne se sont jamais réellement produites, et donc n'existe pas.
L'avocat, Steven Schwartz du cabinet d'avocats Levidow, Levidow & Oberman de Manhattan, a déclaré au tribunal que c'était la première fois en plus de trois décennies de carrière qu'il utilisait ChatGPT, donc [selon le New York Times](https: //www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html), "n'était pas au courant de la possibilité que son contenu puisse être faux."
Schwartz a même dit au juge, P. Kevin Castel, qu'il avait demandé à ChatGPT de vérifier ses sources. Le chatbot lui a apparemment dit que les cas étaient réels, rapporte le NYT.
Oui c'est vrai. Un avocat expérimenté a utilisé ChatGPT au tribunal - et est maintenant en grande difficulté après avoir fabriqué des pans entiers de précédents juridiques.
Faux
Schwartz a déclaré au tribunal qu'il "regrette beaucoup" d'avoir utilisé ChatGPT pour faire ses recherches sur l'affaire "et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité".
Le juge Castel, cependant, ne semble pas influencé et, dans son ordonnance du 4 mai, il décrit sans ambages la gravité de la situation.
"La Cour est confrontée à une circonstance sans précédent", lit-on dans l'ordonnance du juge pour une future audience. "Une soumission déposée par l'avocat du demandeur en opposition à une requête en rejet est remplie de citations de cas inexistants... six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes."
Le mois prochain, Castel tiendra une audience pour discuter de la sanction ou non de Schwartz. Mais en attendant, cette affaire bizarre devrait, espérons-le, servir de récit édifiant aux avocats - et à tous les autres - qui cherchent à expérimenter ChatGPT dans un cadre professionnel.