Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3052

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat américain fait face à des sanctions pour avoir utilisé des citations suggérées par ChatGPT dans un procès
news.abplive.com · 2023

La crédibilité de ChatGPT, un chatbot IA développé par OpenAI, a été remise en question après avoir trompé un avocat en lui faisant croire que les citations fournies par le chatbot étaient légitimes, alors qu'en fait elles étaient fabriquées. L'avocat Steven A Schwartz, qui représentait un client dans un procès contre Avianca, une compagnie aérienne colombienne, a admis dans un affidavit qu'il s'était appuyé sur le chatbot pour ses recherches, comme le rapporte le New York Times.

Au cours de la procédure, l'avocat adverse a souligné que plusieurs des cas cités étaient inexistants. Le juge de district américain Kevin Castel a examiné les soumissions et a confirmé que six des cas inclus dans les arguments de l'avocat étaient basés sur des décisions judiciaires fabriquées, complétées par de fausses citations et des citations internes. En conséquence, le juge a prévu une audience pour envisager d'éventuelles sanctions contre l'équipe juridique du plaignant.

Schwartz a affirmé qu'il avait demandé au chatbot s'il fournissait des informations exactes. Lorsqu'il a demandé une source pour les citations, ChatGPT s'est excusé pour la confusion antérieure et a insisté sur le fait que le cas cité était bien réel. Le chatbot a également soutenu que les autres cas auxquels il avait fait référence étaient authentiques. Schwartz a admis qu'il n'était pas au courant de la possibilité que le contenu du chatbot puisse être faux. Il a exprimé son profond regret de s'être appuyé sur l'intelligence artificielle générative pour compléter ses recherches juridiques et s'est engagé à ne plus jamais le faire sans une vérification approfondie de son authenticité.

Cet incident fait suite à une autre controverse récente impliquant ChatGPT, dans laquelle le chatbot a faussement impliqué un professeur de droit innocent et très respecté, [Nom expurgé], dans une étude de recherche sur des juristes qui s'étaient livrés au harcèlement sexuel dans le passé. Turley, titulaire de la chaire Shapiro de droit de l'intérêt public à l'Université George Washington, a été choqué de découvrir que ChatGPT avait inclus par erreur son nom sur la liste des universitaires accusés d'inconduite. Turley s'est adressé à Twitter pour exprimer son incrédulité, déclarant: "ChatGPT a récemment publié une fausse histoire m'accusant d'avoir agressé sexuellement des étudiants."

Ces incidents soulèvent des inquiétudes quant à la fiabilité et aux risques potentiels associés au contenu généré par l'IA dans les processus de recherche juridique et de prise de décision. La nécessité d'une vérification et d'une vérification des faits strictes lors de l'utilisation d'outils d'IA comme ChatGPT dans des contextes juridiques est devenue de plus en plus évidente pour éviter la diffusion de fausses informations et le préjudice potentiel qu'elle peut causer aux individus et aux procédures judiciaires.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd