Incidents associés

Des [préoccupations] éthiques (https://interestingengineering.com/culture/chatgpt-may-expand-discourse-research "https://interestingengineering.com/culture/chatgpt-may-expand-discourse-research") ont été soulevées par les établissements d'enseignement qui craignent que les étudiants utilisent des chatbots alimentés par l'intelligence artificielle (IA) comme ChatGPT pour rédiger leurs documents de recherche ou leurs essais, affectant ainsi l'intégrité académique de la tâche.
Mais même s'ils utilisaient le chatbot pour des travaux liés à la recherche, on pourrait supposer qu'ils vérifieraient la véracité des résultats produits par le chatbot. Mais ce n'était même pas le cas avec un avocat diplômé du barreau, M. Steven A. Schwartz.
Dans une tournure des événements embarrassante, un avocat basé à New York s'est retrouvé dans l'eau chaude avec un tribunal fédéral de Manhattan après avoir utilisé ChatGPT pour effectuer des recherches juridiques sur une affaire, [rapporté](https://www.nytimes.com/ 2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html "signalé") The New York Times.
Tout se serait bien passé pour M. Schwartz si les citations et les décisions judiciaires mentionnées dans le briefing n'avaient pas été le fruit de l'imagination de ChatGPT.
Le procès avait été intenté par un cabinet d'avocats basé à New York, Levidow, Levidow & Oberman, au nom de leur client Roberto Mata qui voulait poursuivre la compagnie aérienne Avianca après avoir allégué avoir été blessé par un chariot de service lors d'un vol.
Après qu'Avianca ait déposé la requête pour rejeter l'affaire, M. Schwartz, qui exerce la profession d'avocat depuis 30 ans, a soumis un mémoire de 10 pages avec des citations d'affaires similaires dans le passé. Mais ni les avocats représentant Avianca ni le juge lui-même n'ont pu trouver les cas cités dans le journal.
"La Cour est confrontée à une circonstance sans précédent", a écrit le juge de district américain Kevin Castel dans un [avis de justification](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd .575368.31.0.pdf). "Une soumission déposée par l'avocat du demandeur en opposition à une requête en rejet regorge de citations de cas inexistants."
Parmi les citations soumises, "six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", indique en outre l'avis daté du 4 mai 2023.
Il y a un nom pour les "fausses" informations fournies par ChatGPT
Les développeurs l'appellent "hallucination". C'est alors que des outils d'IA génératifs comme ChatGPT génèrent de fausses réponses aux invites. Ces réponses ne sont pas réelles et ne correspondent pas aux données sur lesquelles il a été formé. Un outil d'IA "hallucinant" pourrait, par exemple, créer de faux reportages ou donner une liste de poursuites qui n'existent pas.
M. Schwartz a répondu à l'avis du tribunal le 25 mai, acceptant et s'excusant d'avoir utilisé le chatbot d'OpenAI pour ses recherches. Il a déclaré dans sa réponse : "Que votre déposant (Schwartz) regrette grandement d'avoir utilisé l'intelligence artificielle générative pour compléter les recherches juridiques effectuées ici et ne le fera jamais à l'avenir sans une vérification absolue de son authenticité."
Fait intéressant, Schwartz ne représentait pas directement le client. C'était, en fait, un autre avocat de Levidow, Levidow & Oberman, Peter LoDuca, qui avait demandé à Schwartz de l'aider avec le dossier de citation. Schwartz a ajouté dans sa réponse: "Que Peter LoDuca, Esq. n'a joué aucun rôle dans la réalisation de la recherche en question, et qu'il n'avait aucune connaissance de la manière dont ladite recherche a été menée.
Il a également joint des captures d'écran de ses questions et réponses fournies par ChatGPT comme preuve qu'il "n'avait aucune intention de tromper cette Cour ni le défendeur".
Le tribunal a convoqué une audience le 8 juin pour discuter des sanctions contre M. LoDuca.