Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5023

Loading...
Un homme utilise un avatar IA lors d'un appel judiciaire, et le juge n'est pas content
nytimes.com · 2025

Jerome Dewald était assis, jambes croisées et mains jointes sur les genoux, devant un collège de juges d'appel de l'État de New York, prêt à plaider pour l'annulation de la décision d'un tribunal inférieur dans son litige avec un ancien employeur.

Le tribunal avait autorisé M. Dewald, qui n'est pas avocat et se défendait lui-même, à accompagner sa plaidoirie d'une présentation vidéo préenregistrée.

Lorsque la vidéo commençait à être diffusée, on pouvait voir un homme apparemment plus jeune que les 74 ans de M. Dewald, vêtu d'une chemise à col bleu et d'un pull beige, debout devant ce qui semblait être un arrière-plan virtuel flou.

Quelques secondes après le début de la vidéo, l'un des juges, déconcerté par l'image à l'écran, a demandé à M. Dewald si l'homme était son avocat.

« C'est moi qui l'ai créé », a répondu M. Dewald. « Ce n'est pas une vraie personne. »

La juge Sallie Manzanet-Daniels, du premier département judiciaire de la chambre d'appel, a marqué une pause. Il était clair qu'elle était mécontente de sa réponse.

« J'aurais aimé le savoir lors de votre demande », lui a-t-elle lancé sèchement.

« Je n'apprécie pas d'être induite en erreur », a-t-elle ajouté avant de crier pour que quelqu'un coupe la vidéo.

Ce que M. Dewald a omis de révéler, c'est qu'il avait créé l'avatar numérique à l'aide d'un logiciel d'intelligence artificielle, dernier exemple en date de l'intrusion de l'IA dans le système judiciaire américain, potentiellement préoccupante.

L'audience au cours de laquelle M. Dewald a fait sa présentation, le 26 mars, a été filmée par les caméras du tribunal et rapportée plus tôt par l'Associated Press.

Joint vendredi, M. Dewald, plaignant dans cette affaire, a déclaré avoir été accablé par la gêne ressentie lors de l'audience. Il a indiqué avoir adressé aux juges une lettre d'excuses peu après, exprimant ses profonds regrets et reconnaissant que ses actions avaient « induit le tribunal en erreur ».

Il a expliqué avoir eu recours au logiciel après avoir hésité sur ses propos lors de précédentes procédures judiciaires. L'utilisation de l'IA pour la présentation, pensait-il, pourrait alléger la pression ressentie dans la salle d'audience.

Il a expliqué qu'il avait prévu de créer une version numérique de lui-même, mais qu'il avait rencontré des « difficultés techniques », ce qui l'avait incité à créer une fausse personne pour l'enregistrement.

« Mon intention n'a jamais été de tromper, mais plutôt de présenter mes arguments de la manière la plus efficace possible », a-t-il déclaré dans sa lettre aux juges. « Cependant, je reconnais que la transparence et la transparence doivent toujours primer. »

Se décrivant lui-même comme un entrepreneur, M. Dewald faisait appel d'une décision antérieure dans un litige contractuel avec un ancien employeur. Il a finalement présenté ses plaidoiries orales lors de l'audience d'appel, bafouillant et s'interrompant fréquemment pour se ressaisir et lire des remarques préparées sur son téléphone portable.

Aussi gêné qu'il puisse être, M. Dewald pourrait se consoler en se disant que de véritables avocats ont eu des ennuis pour avoir utilisé l'IA au tribunal.

En 2023, un avocat new-yorkais a subi de graves répercussions après avoir utilisé ChatGPT pour créer un mémoire juridique truffé de fausses opinions judiciaires et de citations juridiques. Cette affaire a mis en évidence les failles du recours à l'intelligence artificielle et a eu des répercussions sur l'ensemble du secteur juridique.

La même année, Michael Cohen, ancien avocat et intermédiaire du président Trump, a fourni à son avocat des fausses citations juridiques obtenues auprès de Google Bard, un programme d'intelligence artificielle. M. Cohen a finalement plaidé la clémence du juge fédéral chargé de son affaire, soulignant qu'il ignorait que le service de texte génératif pouvait fournir de fausses informations.

Certains experts affirment que l'intelligence artificielle et les grands modèles linguistiques peuvent être utiles aux personnes ayant des problèmes juridiques à régler mais n'ayant pas les moyens de s'offrir un avocat. Néanmoins, les risques liés à cette technologie persistent.

« Ils peuvent encore avoir des hallucinations et produire des informations apparemment convaincantes » qui sont en réalité « fausses ou absurdes », a déclaré Daniel Shin, directeur adjoint de recherche au Centre de technologie juridique et judiciaire de la faculté de droit William & Mary. « Ce risque doit être pris en compte. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd