Incidents associés

Un avocat de New York qui a utilisé ChatGPT pour rédiger un mémoire juridique - [citant de faux cas] (https://nypost.com/2023/05/30/steven-schwartz-admits-he-used-chatgpt-to-file-bogus -court-doc/) - s'est abondamment excusé devant le tribunal jeudi, devenant émotif en expliquant avoir été "dupé" par le chatbot d'intelligence artificielle.
Steven Schwartz, du cabinet d'avocats Tribeca Levidow, Levidow & Oberman, a déclaré à un juge fédéral de Manhattan qu'il avait été "humilié" par le flub, affirmant qu'il pensait qu'il utilisait un "moteur de recherche" et qu'il n'avait jamais imaginé que l'application AI fournirait une fausse jurisprudence. .
"Je voudrais sincèrement présenter mes excuses à votre honneur, à ce tribunal, aux accus és, à mon cabinet", a déclaré Schwartz lors de l'audience bondée.
"Je regrette profondément mes actions de cette manière qui ont conduit à cette audience d'aujourd'hui", a déclaré Schwartz, la voix tremblante. "J'ai souffert à la fois professionnellement et personnellement [à cause de] la large publicité que ce problème a générée. Je suis à la fois gêné, humilié et extrêmement plein de remords.
Schwartz a utilisé ChatGPT pour l'aider à trouver une jurisprudence pour soutenir le procès de son client, mais le bot a complètement fabriqué les affaires, à l'insu de l'avocat.
Il a finalement déposé le dossier juridique citant les cas fictifs, incitant le juge Kevin Castel à le traîner devant le tribunal pour une audience sur l'opportunité de sanctionner l'entreprise pour le snafu.
Steven Schwartz a fait face à un grillage par un juge sur l'utilisation de ChatGPT pour aider avec un mémoire juridique, ce qui a entraîné une jurisprudence factice.
Schwartz a été forcé de faire une pause et de se calmer pendant qu'il s'excusait.
"Je n'ai jamais été impliqué dans quelque chose comme ça en 30 ans", a déclaré Schwartz, qui a été forcé de faire une pause et de se calmer pendant qu'il s'excusait.
"Je peux assurer à ce tribunal que rien de tel ne se reproduira", a-t-il insisté auprès du juge.
Schwartz a abondamment présenté ses excuses au juge pour le snafu.
Schwartz avait déposé le dossier judiciaire dans l'affaire de son cabinet en 2022 représentant Robert Mata, qui avait poursuivi la compagnie aérienne colombienne Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal s'était heurté au genou lors d'un vol à destination de New York.
Certains des cas fictifs cités par Schwartz comprenaient Miller contre United Airlines, Petersen contre Iran Air et Varghese contre China Southern Airlines.
Le procès de Mata est toujours en cours.
Castel a grillé Schwartz pendant environ deux heures jeudi sur la façon dont il aurait pu laisser un tel accident se produire.
Schwartz a déclaré qu'il n'avait jamais cru que le chatbot révélerait une fausse jurisprudence.
Schwartz a insisté à plusieurs reprises sur le fait qu'il n'aurait jamais imaginé que ChatGPT fabriquerait complètement une jurisprudence.
"Je n'aurais jamais pu imaginer que ChatGPT fabriquerait des cas", a déclaré Schwartz. "Mon hypothèse était que j'utilisais un moteur de recherche qui utilisait des sources auxquelles je n'ai pas accès."
Schwartz a déclaré que ChatGPT n'avait pas précisé que les cas n'étaient pas réels, ajoutant "J'ai continué à être dupé par ChatGPT".
Schwartz a déclaré qu'il pensait que le bot AI était comme un moteur de recherche.
"Cela ne m'est jamais venu à l'esprit que ce serait inventer des cas", a-t-il expliqué. "J'ai juste supposé qu'il ne pouvait pas accéder au dossier complet."
Schwartz a déclaré qu'il n'aurait jamais soumis le mémoire s'il pensait que la jurisprudence n'était pas réelle, mais a admis qu'il aurait dû d'abord faire preuve de diligence raisonnable.
"Avec le recul, j'aurais aimé faire ça, mais je ne l'ai pas fait", a-t-il déclaré.
L'avocat a dit qu'il avait été « humilié » par son snafu juridique.
Schwartz a également admis qu'il ne pouvait pas trouver les cas complets sur Internet, mais a déclaré qu'il pensait qu'ils auraient pu être en appel ou des cas non publiés.
À un moment donné, Castel a lu un extrait de l'un des cas inventés et a pressé Schwartz: "Pouvons-nous convenir que c'est du charabia juridique?"
"En regardant maintenant, oui", a admis Schwartz.
Schwartz a juré qu'il n'utiliserait plus jamais ChatGPT.
Schwartz a juré d'utiliser l'application à l'avenir et a également déclaré qu'il avait suivi un cours de formation sur l'IA pour améliorer ses connaissances en technologie.
Thomas Corbino, un autre avocat du cabinet, a déclaré au juge que la société n'avait jamais été sanctionnée auparavant et que Schwartz avait toujours été un avocat indépendant.
Un autre avocat du cabinet, Ronald Minkoff, a déclaré au juge que les avocats étaient notoirement mauvais avec la technologie.
"Il n'y avait pas d'inconduite intentionnelle ici", a déclaré Minkoff. "C'était le résultat de l'ignorance et de la négligence. Ce n'était pas intentionnel et certainement pas de mauvaise foi.
Le juge a déclaré qu'il se prononcerait sur l'opportunité d'imposer des sanctions à une date ultérieure.