Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3019

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat a utilisé ChatGPT pour citer de faux cas. Quelle est l'éthique?
reuters.com · 2023

Un avocat de New York fait face à des sanctions potentielles pour un mémoire truffé d'erreurs qu'il a rédigé avec l'aide de ChatGPT.

C'est un scénario contre lequel les experts en éthique juridique ont mis en garde depuis que ChatGPT a fait irruption sur la scène en novembre, marquant une nouvelle ère pour l'IA qui peut produire des réponses de type humain basées sur de grandes quantités de données.

Steven Schwartz de Levidow, Levidow & Oberman fait face à une audience sur les sanctions le 8 juin devant le juge de district américain P. Kevin Castel après avoir admis avoir utilisé ChatGPT pour un mémoire dans l'affaire de blessures corporelles de son client contre Avianca Airlines. Le mémoire citait six décisions de justice inexistantes.

Schwartz a déclaré dans un [dossier judiciaire](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1_1.pdf?utm_source=Sailthru&utm_medium=Newsletter&utm_campaign=Daily-Docket&utm_term =053023) qu'il "regrette profondément" sa confiance dans la technologie et qu'il "ignorait la possibilité que son contenu puisse être faux".

Les avocats représentant Avianca ont alerté le tribunal sur les cas inexistants cités par Schwartz, qui n'a pas répondu à une demande de commentaires mardi.

Les règles modèles de conduite professionnelle de l'American Bar Association ne traitent pas explicitement de l'intelligence artificielle. Mais plusieurs règles d'éthique existantes s'appliquent, disent les experts.

"Vous êtes ultimement responsable des représentations que vous faites", a déclaré Daniel Martin Katz, professeur au Chicago-Kent College of Law qui enseigne la responsabilité professionnelle et étudie l'intelligence artificielle en droit. "C'est ta carte de bar."

DEVOIR DE COMPÉTENCE

Cette règle exige que les avocats fournissent une représentation compétente et soient à jour sur la technologie actuelle. Ils doivent s'assurer que la technologie qu'ils utilisent fournit des informations exactes - une préoccupation majeure étant donné que des outils tels que ChatGPT ont été trouvés pour inventer des choses. Et les avocats ne doivent pas trop compter sur les outils de peur d'introduire des erreurs.

"Se fier aveuglément à l'IA générative pour vous fournir le texte que vous utilisez pour fournir des services à votre client ne passera pas le cap", a déclaré Andrew Perlman, doyen en droit de l'Université de Suffolk, leader en technologie et éthique juridiques.

Perlman envisage des règles de devoir de compétence exigeant éventuellement un certain niveau de maîtrise de la technologie de l'intelligence artificielle. L'IA pourrait révolutionner la pratique juridique de manière si significative qu'un jour ne pas l'utiliser pourrait s'apparenter à ne pas utiliser d'ordinateurs pour la recherche, a-t-il déclaré.

DEVOIR DE CONFIDENTIALITE

Cette règle exige que les avocats « fassent des efforts raisonnables pour empêcher la divulgation par inadvertance ou non autorisée ou l'accès non autorisé à des informations relatives à la représentation d'un client ». Les avocats qui utilisent des programmes comme ChatGPT ou Bing Chat risquent de donner aux sociétés d'intelligence artificielle les données de leurs clients pour former et améliorer leurs modèles, enfreignant potentiellement les règles de confidentialité.

C'est l'une des raisons pour lesquelles certains cabinets d'avocats ont explicitement dit aux avocats de ne pas utiliser ChatGPT et des programmes similaires pour les affaires des clients, a déclaré Josias Dewey, associé de Holland & Knight, qui a travaillé sur le développement de programmes internes d'intelligence artificielle dans son cabinet.

Certains programmes d'intelligence artificielle spécifiques au droit, y compris CoCounsel et Harvey de CaseText, résolvent le problème de confidentialité en gardant leurs données isolées des fournisseurs d'IA extérieurs.

RESPONSABILITÉS CONCERNANT L'ASSISTANCE AUX NON-AVOCATS

En vertu de cette règle, les avocats doivent superviser les avocats et les non-avocats qui les assistent pour s'assurer que leur conduite est conforme aux règles déontologiques. L'ABA en 2012 a précisé que la règle s'applique également à l'assistance non humaine.

Cela signifie que les avocats doivent superviser le travail des programmes d'IA et comprendre suffisamment bien la technologie pour s'assurer qu'elle répond aux normes d'éthique que les avocats doivent respecter.

"Vous devez faire des efforts raisonnables pour vous assurer que la technologie que vous utilisez est conforme à votre propre responsabilité éthique envers vos clients", a déclaré Perlman.

Reportage de Karen Sloan

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd