Incidents associés

Un avocat new-yorkais s'est retrouvé en difficulté dans un procès entre un homme et la compagnie aérienne Avianca Holding S.A. après avoir présenté des citations inexistantes dans l'affaire générée par ChatGPT.
L'affaire impliquait un homme du nom de Roberto Mata poursuivant Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal lui avait heurté le genou pendant un vol. Les réclamations pour blessures sont généralement sans intérêt, mis à part les considérations culturelles plus larges sur la façon dont les États-Unis [est si litigieux] (https://statmodeling.stat.columbia.edu/2015/12/03/why-us-litigious/), mais le l'affaire a pris une tournure intéressante après que la compagnie aérienne a tenté de faire rejeter l'affaire.
Le New York Times a rapporté samedi qu'en réponse au dépôt, les avocats représentant Mata ont soumis un 10 -page brève citant plus d'une demi-douzaine d'affaires judiciaires pertinentes, arguant que les affaires montrent "l'effet péage de la suspension automatique d'un délai de prescription".
Un énorme problème, cependant, est qu'aucun des cas n'était authentique. L'avocat qui a créé le mémoire, Steven A. Schwartz du cabinet Levidow, Levidow & Oberman, avait utilisé ChatGPT d'OpenAI LP pour le rédiger.
Schwartz, qui aurait pratiqué le droit pendant trois décennies, s'est défendu, affirmant qu'il n'était pas au courant du potentiel de l'IA à générer de faux contenus. Schwartz a déclaré au juge P. Kevin Castel qu'il n'avait aucune intention de tromper le tribunal ou la compagnie aérienne et s'est engagé à ne plus utiliser ChatGPT sans vérification approfondie. La situation inhabituelle a incité le juge à convoquer une audience sur les sanctions potentielles contre Schwartz, décrivant l'incident comme une "circonstance sans précédent" remplie de "fausses décisions judiciaires".
L'incident a déclenché des discussions au sein de la communauté juridique sur les valeurs et les risques de l'IA. Stephen Gillers, professeur d'éthique juridique à la faculté de droit de l'Université de New York, a déclaré au Times que l'affaire met en évidence que les professionnels du droit ne peuvent pas simplement prendre le résultat d'une IA et l'incorporer dans les dossiers judiciaires. "La discussion actuellement au sein du barreau est de savoir comment éviter exactement ce que cette affaire décrit", a ajouté Gillers.
L'affaire crée un précédent en raison du rôle que joue l'IA dans la recherche juridique et la construction d'arguments, ce qui a suscité de vives inquiétudes quant à la fiabilité des outils d'IA dans la profession juridique. L'affaire souligne également les dangers potentiels de faire confiance aux résultats de l'IA non seulement dans les documents judiciaires, mais également dans l'utilisation générale sans vérification secondaire.
Photo : Pixabay
**"TheCUBE est un partenaire important de l'industrie. Vous faites vraiment partie de nos événements et nous apprécions vraiment votre venue et je sais que les gens apprécient également le contenu que vous créez » – Andy Jassy **
MERCI