Incidents associés

Plusieurs avocats sont sous surveillance et risquent des sanctions après avoir utilisé le modèle de langage avancé d'OpenAI, ChatGPT, pour la rédaction de documents juridiques soumis à un tribunal fédéral de New York. L'attention entourant cette question découle de la citation erronée de cas inexistants ou non pertinents par ChatGPT.
L'adoption de l'IA dans la pratique juridique n'est pas un concept nouveau, mais son utilisation a connu une augmentation spectaculaire ces dernières années. L'apprentissage automatique a maintenant démontré sa compétence dans la gestion d'une variété de tâches juridiques, allant de la recherche juridique complexe à la création automatisée de documents et à l'analyse de contrats complexes. Parmi ces outils d'IA, ChatGPT d'OpenAI, doté d'un traitement du langage naturel de pointe, s'est avéré remarquablement apte à générer des arguments juridiques convaincants, mais il ne remplace pas l'expertise juridique et la recherche juridique.
Dans ce cas, les avocats ont utilisé ChatGPT pour la création de sections d'un dossier de la Cour fédérale. Le texte comprenait plusieurs citations de jurisprudence. Cependant, après un examen minutieux, le tribunal a conclu que certains des cas cités étaient soit inexistants, soit sans rapport avec l'affaire à l'examen. Ces citations erronées ont apparemment été générées par ChatGPT, ce qui les a amenées à être qualifiées de "fausses".
Selon CNBC, « Roberto Mata's Mata et son avocat, Peter LoDuca, ont allégué qu'Avianca avait causé des blessures à Mata lorsqu'il avait été "frappé par un chariot de service en métal" le embarquer à bord d'un vol 2019 à destination de New York.
Avianca a proposé de rejeter l'affaire. Comme on pouvait s'y attendre, les avocats de Mata se sont opposés à la requête et ont cité diverses décisions judiciaires, comme c'est généralement le cas dans les prises de bec dans les salles d'audience. Puis tout s'est effondré.
Les avocats d'Avianca ont déclaré au tribunal qu'il ne pouvait pas trouver de nombreux cas juridiques que LoDuca avait cités dans sa réponse. Le juge fédéral P. Kevin Castel a exigé que LoDuca fournisse des copies de neuf décisions judiciaires qui auraient été utilisées.
En réponse, LoDuca a déposé le texte intégral de huit affaires devant un tribunal fédéral. Mais le problème n'a fait que s'aggraver, a déclaré Castel dans un dossier, parce que les textes étaient fictifs, citant ce qui semblait être "de fausses décisions judiciaires avec de fausses citations et de fausses citations internes".
Il est crucial de noter que ChatGPT, de par sa nature même et sa programmation, ne possède pas la capacité de discerner la pertinence ou la validité juridique d'une jurisprudence spécifique. Il génère du texte en fonction des modèles et des données sur lesquels il a été formé. Cela signifie que si l'ensemble d'apprentissage contient des données inexactes ou inexistantes, ChatGPT peut produire un texte correspondant. Dans ce cas, il semble que l'IA ait suggéré des jurisprudences fallacieuses ou sans rapport, que les avocats n'ont pas vérifiées avant de les inclure dans leur dossier judiciaire.
Ce faux pas a conduit les avocats impliqués à être au bord de sanctions potentielles. L'exigence d'exactitude et de pertinence des citations de jurisprudence dans la profession juridique est primordiale. Toute soumission de jurisprudence non pertinente ou fausse sape l'argument juridique, fait perdre du temps au tribunal et peut fausser le processus de décision. Les actions de cette nature sont généralement sanctionnées par des sanctions, servant d'avertissement aux autres avocats.