Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 615: Un avocat du Colorado a déposé une requête citant des cas de ChatGPT hallucinés

Traduit par IA
Description:
Traduit par IA
Un avocat de Colorado Springs, Zachariah Crabill, a utilisé par erreur des cas juridiques hallucinés générés par ChatGPT dans des documents judiciaires. Le logiciel d'IA a fourni de fausses citations de cas, ce qui a entraîné le rejet d'une requête et des conséquences juridiques pour Crabill, soulignant les risques liés à l'utilisation de l'IA pour la recherche juridique.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: OpenAI et ChatGPT developed an AI system deployed by Zachariah Crabill, which harmed Zachariah Crabill , Zachariah Crabill's client et Legal system.

Statistiques d'incidents

ID
615
Nombre de rapports
4
Date de l'incident
2023-06-13
Editeurs
Daniel Atherton
Applied Taxonomies
MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

3.1. False or misleading information

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Misinformation

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

+1
L'avocat de Colorado Springs affirme que ChatGPT a créé de faux cas qu'il a cités dans des documents judiciaires | KRDO
+2
Ces avocats ont utilisé ChatGPT pour gagner du temps. Ils ont été licenciés et condamnés à une amende.
L'avocat de Colorado Springs affirme que ChatGPT a créé de faux cas qu'il a cités dans des documents judiciaires | KRDO

L'avocat de Colorado Springs affirme que ChatGPT a créé de faux cas qu'il a cités dans des documents judiciaires | KRDO

krdo.com

Ces avocats ont utilisé ChatGPT pour gagner du temps. Ils ont été licenciés et condamnés à une amende.

Ces avocats ont utilisé ChatGPT pour gagner du temps. Ils ont été licenciés et condamnés à une amende.

washingtonpost.com

Un avocat débutant stressé dit qu'il a été licencié après avoir utilisé ChatGPT pour faire son travail

Un avocat débutant stressé dit qu'il a été licencié après avoir utilisé ChatGPT pour faire son travail

businessinsider.com

Un avocat du Colorado suspendu pour avoir utilisé une plateforme d'IA pour rédiger une requête en justice

Un avocat du Colorado suspendu pour avoir utilisé une plateforme d'IA pour rédiger une requête en justice

cbsnews.com

L'avocat de Colorado Springs affirme que ChatGPT a créé de faux cas qu'il a cités dans des documents judiciaires | KRDO
krdo.com · 2023
Traduit par IA

COLORADO SPRINGS, Colorado (KRDO) - L'avocat de Colorado Springs, Zachariah Crabill, pensait qu'il déposait une requête avec des cas cités qui favoriseraient l'argument de son client, pour découvrir que de nombreux cas étaient inventés par …

Ces avocats ont utilisé ChatGPT pour gagner du temps. Ils ont été licenciés et condamnés à une amende.
washingtonpost.com · 2023
Traduit par IA

Zachariah Crabill avait quitté ses études de droit depuis deux ans, épuisé et nerveux, lorsque ses patrons ont ajouté une autre affaire à sa charge de travail en mai dernier. Il a travaillé pendant des heures pour rédiger une motion jusqu'à…

Un avocat débutant stressé dit qu'il a été licencié après avoir utilisé ChatGPT pour faire son travail
businessinsider.com · 2023
Traduit par IA

Vous envisagez d'utiliser ChatGPT d'OpenAI au travail ? Faites attention aux fausses informations, sinon vous risquez d'être licencié.

Cet été, Zachariah Crabill, un avocat de 29 ans qui travaillait auparavant chez Baker Law Group, a été li…

Un avocat du Colorado suspendu pour avoir utilisé une plateforme d'IA pour rédiger une requête en justice
cbsnews.com · 2023
Traduit par IA

Un avocat du Colorado a été suspendu pendant un an pour avoir utilisé un chatbot IA pour rédiger un document juridique.

Un juge a ordonné à Zachariah Crabill une suspension d'un an et un jour après que Crabill aurait « cité la jurisprudence…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Selected by our editors
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

May 2023 · 58 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

May 2023 · 58 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178