Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3050

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat regrette d'avoir utilisé ChatGPT dans un procès après avoir cité des cas inventés
complex.com · 2023

Un avocat dit qu'il "regrette profondément" d'avoir utilisé ChatGPT dans son travail pour un client qui [poursuit] (https://complex.com/tag/lawsuits) une compagnie aérienne, car il a depuis été déterminé que le modèle de langage de l'intelligence artificielle a cité plusieurs cas inexistants dans sa prétendue recherche.

Comme rapporté pour la première fois par le New York Times sur le week-end, le costume en question provient d'un homme qui prétend avoir été blessé lorsqu'un chariot de service a heurté son genou lors d'un vol vers New York. L'homme, identifié comme Roberto Mata, a poursuivi Avianca pour les blessures présumées.

Mais lorsque la compagnie aérienne a fait pression pour que l'affaire soit rejetée, l'équipe juridique de l'homme --- y compris un avocat du nom de Steven A. Schwartz --- a souligné un certain nombre de décisions de justice antérieures qui, selon eux, soutenaient leur position. Le vrai problème ici, en fin de compte, était qu'aucun de ces cas n'était réel.

Schwartz, qui travaille au sein du cabinet d'avocats Levidow, Levidow & Oberman, a déclaré dans un affidavit ultérieur --- disponible à lire [ici] (https://www.documentcloud.org/documents/23826751-mata-v-avianca -airlines-affidavit-in-opposition-to-motion?responsive=1&title=1) via un rapport séparé [de](https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit -avianca-airlines-chatbot-research) The Verge --- qu'il avait "consulté" ChatGPT "afin de compléter le processus de recherche juridique".

Cette utilisation admise de ChatGPT a entraîné la citation d'au moins six cas potentiels différents, qui se sont tous révélés plus tard "inexistants". Selon Schwartz, il n'avait pas utilisé ChatGPT avant cet incident, affirmant que cela le rendait "inconscient de la possibilité que son contenu puisse être faux". Schwartz, dans le même document judiciaire, a également dit il n'avait "aucune intention de tromper" le tribunal ou les accusés dans l'affaire.

À l'avenir, Schwartz --- qui a maintenant une audience sur les sanctions dans les livres pour le mois prochain --- a déclaré qu'il n'utiliserait pas ChatGPT à l'avenir à moins qu'il ne soit en mesure d'obtenir une "vérification absolue" de telles affirmations.

Bien sûr, c'est loin d'être la première histoire dans laquelle les dangers de s'appuyer sur une telle technologie ont été mis en évidence de manière frappante. Alors que certains PDG sont restés capitalistiquement (et de manière prévisible) optimistes en plongeant jusqu'au bout dans l'IA, plusieurs leaders dans le domaine ont mis en garde contre le fait de ne pas le faire sans que des réglementations aient d'abord été instituées.

Par exemple, Sam Altman---le PDG des développeurs ChatGPT OpenAI---[warned](https://www.complex.com/life/a/tracewilliamcowen/ceo-company-behind-chatgpt-nervous-about-ai -risques) lors d'une récente audience du Comité judiciaire du Sénat, cette technologie "peut mal tourner". Lors de la même audience, Altman a admis qu'il était "nerveux" à propos de certains aspects de cette étape du développement de l'IA, y compris ses "pires craintes" que ceux qui sont à l'origine de la technologie puissent "causer un préjudice important au monde".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd