Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3025

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat "regrette" d'avoir utilisé ChatGPT dans un dossier juridique et cite de faux cas
entrepreneur.com · 2023

Alors que les chatbots rapides, tels que ChatGPT, deviennent des outils courants utilisés pour gagner du temps sur les tâches sur le lieu de travail aux États-Unis, on s'est demandé si l'intelligence artificielle finirait par remplacer les emplois humains.

Mais alors que la controverse entourant les emplois qui seront supprimés se poursuit, une chose est sûre : dans certaines industries, le chatbot est moins un gain de temps qu'un handicap.

Steven A. Schwartz, un avocat basé à New York avec plus de 30 ans d'expérience, a été chargé par le district sud de New York d'expliquer ce que le juge a appelé un "cas sans précédent", le New York Times premier [rapporté](https ://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp=cur), ou faire face à d'éventuelles sanctions pour ses actions.

Selon l'ordonnance du tribunal, six cas cités par Schwartz dans un mémoire juridique étaient "faux."

"Six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", a écrit le juge P. Kevin Castel dans l'ordonnance du tribunal.

Dans un affidavit déposé la semaine dernière en réponse à l'ordonnance, Schwartz a admis avoir utilisant ChatGPT pour faire des recherches juridiques bien qu'il ne l'ait jamais utilisé avant cette instance et qu'il "ignorait la possibilité que son contenu puisse être faux".

Schwartz a ajouté qu'il "regrette beaucoup" d'avoir utilisé l'intelligence artificielle pour "compléter" ses recherches juridiques.

Une audience est prévue le 8 juin pour que Schwartz s'explique davantage.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd