Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3116

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Le juge interdit les dépôts générés par l'IA devant le tribunal parce que cela ne fait que créer des trucs
vice.com · 2023

Un juge de district du Texas [a rendu une ordonnance] (https://www.txnd.uscourts.gov/judge/judge-brantley-starr) mardi qui a interdit l'utilisation de l'intelligence artificielle générative pour rédiger des documents judiciaires sans un fait humain- vérifiez que la technologie devient plus courante dans les contextes juridiques malgré ses lacunes bien documentées, telles que l'invention.

"Tous les avocats comparaissant devant la Cour doivent déposer au rôle un certificat attestant soit qu'aucune partie du dossier n'a été rédigée par une intelligence artificielle générative (telle que ChatGPT, Harvey.AI ou Google Bard) ou qu'une langue rédigée par une intelligence artificielle générative a été vérifiée pour son exactitude, à l'aide de journalistes imprimés ou de bases de données juridiques traditionnelles, par un être humain », a déclaré l'ordonnance du juge Brantley Starr.

Cette décision fait suite à un incident où un avocat de Manhattan nommé Steven A. Schwartz [a utilisé ChatGPT pour rédiger un mémoire de 10 pages](https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit- chatgpt.html) citant plusieurs cas inventés par le chatbot, tels que "Martinez contre Delta Air Lines" et "Varghese contre China Southern Airlines". Après que Schwartz ait soumis le mémoire à un juge fédéral de Manhattan, personne n'a pu trouver les décisions ou les citations incluses, et Schwartz a admis plus tard dans un affidavit qu'il avait utilisé ChatGPT pour faire des recherches juridiques.

Même Sam Altman, le PDG du fabricant de ChatGPT OpenAI, a mis en garde contre l'utilisation du chatbot à des fins plus sérieuses et à enjeux élevés. Dans une interview avec Kara Swisher d'Intelligencer, Altman a admis que bot invente parfois des choses et présente aux utilisateurs des informations erronées.

La capacité des grands modèles de langage (LLM) comme ChatGPT à inventer des choses, également connue sous le nom d'hallucination, est un problème dont les chercheurs en IA se sont fait l'écho. Dans une étude réalisée par des chercheurs de Microsoft pour accompagner la publication de GPT-4, ils ont écrit que le chatbot a du mal à savoir quand il est confiant ou juste deviner, invente des faits qui ne figurent pas dans ses données de formation, n'a aucun moyen de vérifier si sa sortie est cohérente avec ses données de formation et hérite de biais et les préjugés dans les données d'entraînement.

« Ces plates-formes dans leur état actuel sont sujettes aux hallucinations et aux préjugés. Sur les hallucinations, ils inventent des trucs, même des citations et des citations », a écrit Starr dans son ordre. « Un autre problème est la fiabilité ou le biais. Alors que les avocats prêtent serment de mettre de côté leurs préjugés, préjugés et croyances personnels pour faire respecter fidèlement la loi et représenter leurs clients, l'intelligence artificielle générative est le produit d'une programmation conçue par des humains qui n'ont pas eu à prêter un tel serment. En tant que tels, ces systèmes n'ont aucune allégeance à un client, à l'État de droit ou aux lois et à la Constitution des États-Unis (ou, comme indiqué ci-dessus, à la vérité).

Starr a joint un "certificat obligatoire concernant l'intelligence artificielle générative" que les avocats doivent signer lorsqu'ils comparaissent devant son tribunal. "Je certifie en outre qu'aucune partie de tout dépôt dans cette affaire ne sera rédigée par l'intelligence artificielle générative ou que tout langage rédigé par l'intelligence artificielle générative - y compris les citations, les citations, les affirmations paraphrasées et l'analyse juridique - sera vérifié pour l'exactitude, en utilisant l'impression des journalistes ou des bases de données juridiques traditionnelles, par un être humain avant qu'il ne soit soumis à la Cour », [le contrat stipule] (https://www.txnd.uscourts.gov/judge/judge-brantley-starr#:~:text= Un%20modèle%20de%20certificat%20concernant%20les%20exigences%20spécifiques%20du%20juge%20est%20fourni%20ici).

En dehors des tribunaux, il a déjà été prouvé que l'IA propage la désinformation. La semaine dernière, des dizaines de comptes vérifiés sur Twitter ont publié une explosion près du Pentagone aux côtés d'une IA -image générée. Il y avait aussi une tendance Reddit en mars où les gens créaient de faux événements historiques en utilisant l'IA, comme "Le tremblement de terre et le tsunami de 2001 Great Cascadia 9.1".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd