Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3041

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Pas de ChatGPT dans mon tribunal : le juge ordonne que tout le contenu généré par l'IA soit déclaré et vérifié
techcrunch.com · 2023

Peu d'avocats seraient assez fous pour laisser une IA présenter leurs arguments, mais un l'a déjà fait, et le juge Brantley Starr prend des mesures pour s'assurer que la débâcle ne se reproduise pas dans sa salle d'audience.

Le juge fédéral du Texas a ajouté une exigence selon laquelle tout avocat comparaissant devant son tribunal doit attester qu'"aucune partie du dossier n'a été rédigée par une intelligence artificielle générative", ou si c'était le cas, qu'elle a été vérifiée "par un être humain".

La semaine dernière, l'avocat Steven Schwartz a autorisé ChatGPT à " compléter »ses recherches juridiques dans un récent dossier fédéral, lui fournissant six cas et un précédent pertinent – qui ont tous été complètement hallucinés par le modèle linguistique. Il ["regrette beaucoup" d'avoir fait cela](https://arstechnica.com/tech-policy/2023/05/lawyer-cited-6-fake-cases-made-up-by-chatgpt-judge-calls-it -sans précédent/), et bien que la couverture nationale de cette gaffe ait probablement fait réfléchir à nouveau tous les autres avocats qui envisageaient de l'essayer, le juge Starr ne prend aucun risque.

Sur le site fédéral du district nord du Texas, Starr a, comme d'autres juges, la possibilité de définir des règles spécifiques pour sa salle d'audience. Et ajouté récemment (bien qu'il ne soit pas clair si cela était en réponse au dépôt susmentionné) est la "Certification obligatoire concernant l'intelligence artificielle générative." Eugene Volokh [a annoncé la nouvelle pour la première fois] (https://reason.com/volokh/2023/05/30/federal-judge-requires-all-lawyers-to-file-certificates-related-to-use-of- generative-ai/).

Tous les avocats comparaissant devant la Cour doivent déposer au rôle un certificat attestant soit qu'aucune partie du dossier n'a été rédigée par une intelligence artificielle générative (telle que ChatGPT, Harvey.AI ou Google Bard) ou qu'une langue rédigée par une intelligence artificielle générative a été vérifiée pour son exactitude, à l'aide de journalistes imprimés ou de bases de données juridiques traditionnelles, par un être humain.

Un formulaire à signer par les avocats est annexé, notant que "les citations, citations, affirmations paraphrasées et analyses juridiques" sont toutes couvertes par cette interdiction. Étant donné que le résumé est l'un des points forts de l'IA, et que la recherche et la synthèse de précédents ou de cas antérieurs sont quelque chose qui a été annoncé comme potentiellement utile dans le travail juridique, cela peut finir par entrer en jeu plus souvent que prévu.

Celui qui a rédigé le mémorandum sur cette question au bureau du juge Starr a le doigt sur le pouls. L'exigence de certification comprend une explication assez bien informée et convaincante de sa nécessité (sauts de ligne ajoutés pour la lisibilité):

Ces plateformes sont incroyablement puissantes et ont de nombreuses utilisations dans le droit : formulaires de divorces, demandes de découverte, suggestions d'erreurs dans les documents, questions anticipées lors des plaidoiries. Mais le briefing juridique n'en fait pas partie. Voici pourquoi.

Ces plateformes dans leur état actuel sont sujettes aux hallucinations et aux préjugés. Sur les hallucinations, ils inventent des trucs, même des citations et des citations. Un autre problème est la fiabilité ou le biais. Alors que les avocats prêtent serment de mettre de côté leurs préjugés, préjugés et croyances personnels pour faire respecter fidèlement la loi et représenter leurs clients, l'intelligence artificielle générative est le produit d'une programmation conçue par des humains qui n'ont pas eu à prêter un tel serment.

En tant que tels, ces systèmes n'ont aucune allégeance à un client, à l'État de droit ou aux lois et à la Constitution des États-Unis (ou, comme indiqué ci-dessus, à la vérité). Sans aucun sens du devoir, de l'honneur ou de la justice, ces programmes agissent selon un code informatique plutôt qu'en fonction de convictions, en se basant sur la programmation plutôt que sur des principes. Toute partie estimant qu'une plate-forme a l'exactitude et la fiabilité requises pour un briefing juridique peut demander un congé et expliquer pourquoi.

En d'autres termes, soyez prêt à vous justifier.

Bien qu'il ne s'agisse que d'un seul juge dans un tribunal, il ne serait pas surprenant que d'autres adoptent cette règle comme la leur. Bien que, comme le dit le tribunal, il s'agisse d'une technologie puissante et potentiellement utile, son utilisation doit être à tout le moins clairement déclarée et son exactitude vérifiée.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd