Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5023

Loading...
Un hombre usa un avatar de IA en una apelación legal, y al juez no le hace gracia.
nytimes.com · 2025

Jerome Dewald se sentó con las piernas cruzadas y las manos sobre el regazo frente a un panel de apelaciones del estado de Nueva York, listo para argumentar la revocación de la decisión de un tribunal inferior en su disputa con un exempleador.

El tribunal había permitido que el Sr. Dewald, quien no es abogado y se representaba a sí mismo, acompañara su argumento con una presentación en video pregrabada.

Al comenzar la reproducción del video, se mostró a un hombre aparentemente más joven que los 74 años del Sr. Dewald, vestido con una camisa azul y un suéter beige, de pie frente a lo que parecía ser un fondo virtual borroso.

A los pocos segundos de comenzar el video, uno de los jueces, confundido por la imagen en pantalla, le preguntó al Sr. Dewald si el hombre era su abogado.

"Yo lo generé", respondió el Sr. Dewald. "Esa no es una persona real".

La jueza Sallie Manzanet-Daniels, del Primer Departamento Judicial de la División de Apelaciones, hizo una breve pausa. Era evidente que no estaba satisfecha con su respuesta.

"Habría sido bueno saberlo cuando presentaste tu solicitud", le espetó.

"No me gusta que me engañen", añadió antes de gritarle a alguien que apagara el video.

Lo que el Sr. Dewald no reveló fue que había creado el avatar digital utilizando software de inteligencia artificial, el último ejemplo de cómo la IA se infiltra en el sistema legal estadounidense de formas potencialmente preocupantes.

La audiencia en la que el Sr. Dewald hizo su presentación, el 26 de marzo, fue grabada por cámaras del sistema judicial y reportada previamente por Associated Press.

Contactado el viernes, el Sr. Dewald, demandante en el caso, declaró sentirse abrumado por la vergüenza en la audiencia. Añadió que envió a los jueces una carta de disculpa poco después, expresando su profundo arrepentimiento y reconociendo que sus acciones habían "inadvertidamente engañado" al tribunal.

Añadió que había recurrido al software tras haber tenido problemas con sus palabras en procedimientos judiciales anteriores. Pensó que usar IA para la presentación podría aliviar la presión que sentía en la sala.

Añadió que había planeado crear una versión digital de sí mismo, pero que había encontrado "dificultades técnicas" al hacerlo, lo que lo llevó a crear una persona falsa para la grabación.

"Mi intención nunca fue engañar, sino presentar mis argumentos de la manera más eficiente posible", declaró en su carta a los jueces. "Sin embargo, reconozco que la divulgación y la transparencia adecuadas siempre deben prevalecer".

El Sr. Dewald, autodenominado empresario, estaba apelando un fallo anterior en una disputa contractual con un antiguo empleador. Finalmente, presentó un alegato oral en la audiencia de apelación, tartamudeando y haciendo frecuentes pausas para recomponerse y leer los comentarios preparados en su teléfono celular.

A pesar de la vergüenza que pudiera sentir, el Sr. Dewald podría consolarse con el hecho de que abogados de verdad se han metido en problemas por usar IA en los tribunales.

En 2023, un abogado de Nueva York enfrentó graves repercusiones tras usar ChatGPT para crear un escrito legal (http://nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html) plagado de opiniones judiciales y citas legales falsas. El caso puso de manifiesto las deficiencias de confiar en la inteligencia artificial y repercutió en todo el sector jurídico.

Ese mismo año, Michael Cohen, exabogado y mediador del presidente Trump, proporcionó a su abogado citas legales falsas que había obtenido de Google Bard, un programa de inteligencia artificial. El Sr. Cohen finalmente solicitó clemencia al juez federal que presidía su caso, enfatizando que desconocía que el servicio de texto generativo pudiera proporcionar información falsa.

Algunos expertos afirman que la inteligencia artificial y los modelos de lenguaje de gran tamaño pueden ser útiles para quienes tienen asuntos legales que resolver pero no pueden costear un abogado. Sin embargo, los riesgos de esta tecnología persisten.

"Aún pueden alucinar, producir información de apariencia muy convincente" que en realidad es "falsa o sin sentido", afirmó Daniel Shin, subdirector de investigación del Centro de Tecnología Legal y Judicial de la Facultad de Derecho William & Mary. "Ese riesgo debe abordarse".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd