Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 615: Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

Description: A Colorado Springs attorney, Zachariah Crabill, mistakenly used hallucinated ChatGPT-generated legal cases in court documents. The AI software provided false case citations, leading to the denial of a motion and legal repercussions for Crabill, highlighting risks in using AI for legal research.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: OpenAI et ChatGPT developed an AI system deployed by Zachariah Crabill, which harmed Zachariah Crabill , Zachariah Crabill's client et Legal system.

Statistiques d'incidents

ID
615
Nombre de rapports
4
Date de l'incident
2023-06-13
Editeurs
Daniel Atherton
Applied Taxonomies
MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

3.1. False or misleading information

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Misinformation

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

+1
L'avocat de Colorado Springs affirme que ChatGPT a créé de faux cas qu'il a cités dans des documents judiciaires | KRDO
+2
Ces avocats ont utilisé ChatGPT pour gagner du temps. Ils ont été licenciés et condamnés à une amende.
L'avocat de Colorado Springs affirme que ChatGPT a créé de faux cas qu'il a cités dans des documents judiciaires | KRDO

L'avocat de Colorado Springs affirme que ChatGPT a créé de faux cas qu'il a cités dans des documents judiciaires | KRDO

krdo.com

Ces avocats ont utilisé ChatGPT pour gagner du temps. Ils ont été licenciés et condamnés à une amende.

Ces avocats ont utilisé ChatGPT pour gagner du temps. Ils ont été licenciés et condamnés à une amende.

washingtonpost.com

Un avocat débutant stressé dit qu'il a été licencié après avoir utilisé ChatGPT pour faire son travail

Un avocat débutant stressé dit qu'il a été licencié après avoir utilisé ChatGPT pour faire son travail

businessinsider.com

Un avocat du Colorado suspendu pour avoir utilisé une plateforme d'IA pour rédiger une requête en justice

Un avocat du Colorado suspendu pour avoir utilisé une plateforme d'IA pour rédiger une requête en justice

cbsnews.com

L'avocat de Colorado Springs affirme que ChatGPT a créé de faux cas qu'il a cités dans des documents judiciaires | KRDO
krdo.com · 2023
Traduit par IA

COLORADO SPRINGS, Colorado (KRDO) - L'avocat de Colorado Springs, Zachariah Crabill, pensait qu'il déposait une requête avec des cas cités qui favoriseraient l'argument de son client, pour découvrir que de nombreux cas étaient inventés par …

Ces avocats ont utilisé ChatGPT pour gagner du temps. Ils ont été licenciés et condamnés à une amende.
washingtonpost.com · 2023
Traduit par IA

Zachariah Crabill avait quitté ses études de droit depuis deux ans, épuisé et nerveux, lorsque ses patrons ont ajouté une autre affaire à sa charge de travail en mai dernier. Il a travaillé pendant des heures pour rédiger une motion jusqu'à…

Un avocat débutant stressé dit qu'il a été licencié après avoir utilisé ChatGPT pour faire son travail
businessinsider.com · 2023
Traduit par IA

Vous envisagez d'utiliser ChatGPT d'OpenAI au travail ? Faites attention aux fausses informations, sinon vous risquez d'être licencié.

Cet été, Zachariah Crabill, un avocat de 29 ans qui travaillait auparavant chez Baker Law Group, a été li…

Un avocat du Colorado suspendu pour avoir utilisé une plateforme d'IA pour rédiger une requête en justice
cbsnews.com · 2023
Traduit par IA

Un avocat du Colorado a été suspendu pendant un an pour avoir utilisé un chatbot IA pour rédiger un document juridique.

Un juge a ordonné à Zachariah Crabill une suspension d'un an et un jour après que Crabill aurait « cité la jurisprudence…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Selected by our editors
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Here’s What Happens When Your Lawyer Uses ChatGPT

May 2023 · 58 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Here’s What Happens When Your Lawyer Uses ChatGPT

May 2023 · 58 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df