Incidents associés

Dans une affaire "sans précédent", un avocat titulaire d'une licence à New York depuis plus de trois décennies s'est récemment excusé d'avoir présenté de faux cas au tribunal.
Son origine ? Le tristement célèbre ChatGPT.
Steven Schwartz, associé au bureau new-yorkais de Levidow, Levidow & Oberman, s'occupait du cas de Roberto Mata, qui poursuivait les compagnies aériennes Avianca après avoir subi des blessures corporelles à bord de l'un de ses transporteurs. Avianca a proposé de rejeter l'affaire, tandis que Mata et ses représentants s'y sont opposés devant le tribunal.
Des cas "discutables"
Dans ce mouvement, cependant, les avocats d'Avianca ont soulign é que le de nombreux cas soumis par l'avocat de Mata étaient « discutables ».
Le greffier de la Cour d'appel des États-Unis pour le onzième circuit, en réponse à l'enquête de la Cour, a confirmé que l'une des affaires citées par Schwartz - *Varghese c. China South Airlines Ltd *-- est inexistante. D'autres décisions citées par l'avocat de Mata qui semblent également fausses incluent :
- Shaboon c. Egyptair
- Petersen c. Iran Air
- Martinez contre Delta Airlines, Inc.
- Succession de Durden c. KLM Royal Dutch Airlines
- Miller contre United Airlines, Inc.
"Le tribunal est confronté à une circonstance sans précédent", a déclaré le juge de district américain Kevin Castel. "Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes."
Castel a émis une ordonnance de justification sur les raisons pour lesquelles l'avocat de Mata ne devrait pas être sanctionné pour ses actes.
Utilisation de ChatGPT dans le domaine juridique
Dans un affidavit, Schwartz a expliqué qu'il utilisait ChatGPT pour "compléter les recherches" qu'il a menées, citant l'utilisation croissante de l'IA générative dans les cabinets d'avocats.
"C'est en consultation avec le site Web d'intelligence artificielle générative ChatGPT que votre déposant a localisé et cité les cas suivants dans l'affirmation en opposition soumise", a-t-il déclaré.
Selon l'avocat, il n'a jamais utilisé ChatGPT dans le passé pour mener des recherches juridiques et "ignorait" que le contenu généré pouvait être faux.
"C'est la faute du déposant, de ne pas confirmer les sources fournies par ChatGPT des avis juridiques qu'il a fournis", a déclaré Schwartz. "Que votre déposant n'avait aucune intention de tromper ce tribunal ni l'accusé."
Schwartz a ajouté qu'il "regrette beaucoup" d'utiliser l'IA générative pour compléter la recherche juridique et a juré de "ne jamais le faire à l'avenir sans une vérification absolue de son authenticité".
L'avocat a également précisé que son collègue avocat, Peter LoDuca, n'avait "aucun rôle" dans la réalisation des recherches juridiques et n'avait pas été informé que ChatGPT était utilisé. LoDuca, dans son propre affidavit, a également défendu qu'il n'avait auparavant aucune raison douter de l'authenticité et de la sincérité des recherches de Schwartz.
Risques liés à l'utilisation de l'IA
L'affaire reflète les risques exprimés par de nombreux régulateurs concernant l'utilisation de l'IA générative sur le lieu de travail. En Nouvelle-Zélande, le Bureau du commissaire à la protection de la vie privée a mis en garde contre l'[exactitude des informations](https://www.hcamag.com/nz/specialisation/employment-law/privacy-commissioner-think-about-consequences-of- ai-before-use/447448) créé par l'IA générative.
Cette préoccupation s'ajoute à la liste croissante des problèmes rencontrés par les employeurs avec l'IA générative, qui comprend des risques de sécurité, après que Samsung ait déjà souffert d'une [fuite de données confidentielles](https://www.hcamag.com/asia/specialisation/hr-technology/samsung -electronics-employees-leak-company-info-on-chatgpt-reports/442250) après que les employés ont utilisé des outils alimentés par l'IA pour résoudre des problèmes sur le lieu de travail.