Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3039

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
ChatGPT provoque un chaos juridique après avoir constitué des dossiers pour alléger la charge de travail de l'avocat
benzinga.com · 2023

Dans une tournure des événements surprenante, l'utilisation par un avocat du chatGPT d'OpenAI pour l'assistance juridique s'est retournée contre le [le chatbot alimenté par l'IA a fabriqué des cas inexistants](https://www.benzinga.com/ news/23/04/31849266/sundar-pichai-ouvre-sur-google-bards-trippy-troubles-no-one-in-the-field-has-encore-solved-halluci).

Ce qui s'est passé : Dans une affaire bizarre entourant Mata Vs. Avianca, qui impliquait un client poursuivant la compagnie aérienne pour une blessure au genou causée par un chariot de service, l'utilisation de chatGPT a pris une tournure surprenante.

Les avocats de Mata se sont opposés à la tentative d'Avianca de rejeter l'affaire et ont soumis un mémoire contenant de nombreuses prétendues décisions de justice générées par le chatbot alimenté par l'IA.

À première vue, cela peut sembler être un incident amusant, une erreur honnête, ou les deux, mais ce qui s'est passé ensuite n'était rien de moins que bizarre.

Lorsqu'il a été pressé de produire les cas réels en question, l'avocat du plaignant a de nouveau demandé l'aide de chatGPT, ce qui a conduit l'IA à inventer des détails élaborés de ces cas inventés, qui ont ensuite été capturés sous forme de captures d'écran et incorporés dans les documents juridiques.

Ajoutant à la séquence étonnante, l'avocat est allé jusqu'à demander à chatGPT de vérifier l'authenticité de l'un des cas, ce à quoi l'IA a répondu par l'affirmative, ce qui a entraîné l'inclusion des captures d'écran de confirmation de l'IA dans un autre dossier.

En réponse à cette situation extraordinaire, le juge a prévu une audience le mois prochain pour aborder la possibilité d'imposer des sanctions aux avocats, reconnaissant la nécessité de discuter et de faire face aux conséquences de cette circonstance sans précédent.

Il est pertinent de noter que le mois dernier, il a été signalé qu'un juge indien ne pouvait pas décider si une caution devait être accordée à un [suspect de meurtre qui a utilisé chatGPT pour obtenir de l'aide] (https://www.benzinga.com/news/23 /04/31817379/juge-use-chatgpt-to-decide-fate-of-murder-suspect).

Pourquoi c'est important : Ce qui rend l'affaire si bizarre, c'est le fait que, même s'il est bien connu que chatGPT d'OpenAI et d'autres modèles d'IA générative comme Bing AI de Microsoft Corp. et Google Bard d'Alphabet Inc., ont tendance à halluciner et [fournir même des faits inventés avec la plus grande conviction] (https://www.benzinga.com/news/23/04/32041343/whos-to-blame-for-ai-censorship-demands-redditor-says-not-chatgpt -ou-openai-mais).

Auparavant, un utilisateur de Reddit avait souligné des problèmes similaires en déclarant que lorsque les gens deviennent excessivement sûrs d'eux-mêmes quant aux capacités de l'IA (dans ce cas, chatGPT) et ne tiennent pas compte des [dangers potentiels de demander conseil au chatbot](https://www.benzinga.com /news/23/02/30813210/ai-might-not-be-the-answer-for-your-homework-yet-google-bard-gives-this-wrong-answer-at-launch) dans des domaines sensibles comme la médecine ou la loi, des problèmes surgissent.

Le pire, c'est que même les personnes férues de technologie peuvent devenir la proie des [hallucinations bien documentées pour lesquelles chatGPT est connu](https://www.benzinga.com/news/23/03/31470922/elon-musk-and -openai-ceo-sam-altman-continue-les-avertissements-sur-les-risques-de-l-intelligence-artificielle-voici-comment).

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd