Incidents associés

La crédibilité de ChatGPT, un chatbot IA développé par OpenAI, a été remise en question après avoir trompé un avocat en lui faisant croire que les citations fournies par le chatbot étaient légitimes, alors qu'en fait elles étaient fabriquées. L'avocat Steven A Schwartz, qui représentait un client dans un procès contre Avianca, une compagnie aérienne colombienne, a admis dans un affidavit qu'il s'était appuyé sur le chatbot pour ses recherches, comme le rapporte le New York Times.
Au cours de la procédure, l'avocat adverse a souligné que plusieurs des cas cités étaient inexistants. Le juge de district américain Kevin Castel a examiné les soumissions et a confirmé que six des cas inclus dans les arguments de l'avocat étaient basés sur des décisions judiciaires fabriquées, complétées par de fausses citations et des citations internes. En conséquence, le juge a prévu une audience pour envisager d'éventuelles sanctions contre l'équipe juridique du plaignant.
Schwartz a affirmé qu'il avait demandé au chatbot s'il fournissait des informations exactes. Lorsqu'il a demandé une source pour les citations, ChatGPT s'est excusé pour la confusion antérieure et a insisté sur le fait que le cas cité était bien réel. Le chatbot a également soutenu que les autres cas auxquels il avait fait référence étaient authentiques. Schwartz a admis qu'il n'était pas au courant de la possibilité que le contenu du chatbot puisse être faux. Il a exprimé son profond regret de s'être appuyé sur l'intelligence artificielle générative pour compléter ses recherches juridiques et s'est engagé à ne plus jamais le faire sans une vérification approfondie de son authenticité.
Cet incident fait suite à une autre controverse récente impliquant ChatGPT, dans laquelle le chatbot a faussement impliqué un professeur de droit innocent et très respecté, [Nom expurgé], dans une étude de recherche sur des juristes qui s'étaient livrés au harcèlement sexuel dans le passé. Turley, titulaire de la chaire Shapiro de droit de l'intérêt public à l'Université George Washington, a été choqué de découvrir que ChatGPT avait inclus par erreur son nom sur la liste des universitaires accusés d'inconduite. Turley s'est adressé à Twitter pour exprimer son incrédulité, déclarant: "ChatGPT a récemment publié une fausse histoire m'accusant d'avoir agressé sexuellement des étudiants."
Ces incidents soulèvent des inquiétudes quant à la fiabilité et aux risques potentiels associés au contenu généré par l'IA dans les processus de recherche juridique et de prise de décision. La nécessité d'une vérification et d'une vérification des faits strictes lors de l'utilisation d'outils d'IA comme ChatGPT dans des contextes juridiques est devenue de plus en plus évidente pour éviter la diffusion de fausses informations et le préjudice potentiel qu'elle peut causer aux individus et aux procédures judiciaires.