Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6166

Incidentes Asociados

Incidente 114526 Reportes
MyPillow Defense Lawyers in Coomer v. Lindell Reportedly Sanctioned for Filing Court Document Allegedly Containing AI-Generated Legal Citations

Loading...
Un caso reciente y muy notorio de alucinaciones causadas por IA sirve como una dura advertencia
npr.org · 2025

Una jueza federal ordenó a dos abogados que representan a Mike Lindell, director ejecutivo de MyPillow, en un caso de difamación en Colorado, pagar 3.000 dólares a cada uno tras utilizar inteligencia artificial para preparar un expediente judicial repleto de errores y citas de casos inexistentes.

Christopher Kachouroff y Jennifer DeMaster infringieron las normas judiciales al presentar el documento en febrero, repleto de más de dos docenas de errores, incluyendo casos alucinados, es decir, casos falsos inventados con herramientas de IA, dictaminó el lunes la jueza Nina Y. Wang, del Tribunal de Distrito de EE. UU. en Denver.

"A pesar de cualquier sugerencia en contrario, este Tribunal no se complace en sancionar a los abogados que comparecen ante él", escribió Wang en su decisión. "De hecho, los tribunales federales dependen de la asistencia de los abogados como funcionarios del tribunal para la administración de justicia eficiente y justa".

El uso de IA por parte de los abogados en los tribunales no es ilegal en sí mismo. Sin embargo, Wang determinó que los abogados infringieron una norma federal que les exige certificar que las reclamaciones que presentan ante el tribunal están "bien fundamentadas" en la ley. Resulta que los casos falsos no cumplen con ese requisito.

Kachouroff y DeMaster no respondieron a la solicitud de comentarios de NPR.

La presentación judicial, plagada de errores, formaba parte de un caso de difamación que involucraba a Lindell, creador de MyPillow, partidario del presidente Trump y teórico de la conspiración conocido por difundir mentiras sobre las elecciones de 2020. El mes pasado, Lindell perdió este caso, que se estaba litigando ante Wang. Se le ordenó pagar a Eric Coomer, exempleado de Dominion Voting Systems, con sede en Denver, más de dos millones de dólares tras afirmar que Coomer y Dominion utilizaron equipos electorales para inclinar la balanza a favor de Joe Biden.

Las sanciones económicas, así como el daño reputacional, para los dos abogados son un duro recordatorio para los abogados que, como muchos otros, utilizan cada vez más inteligencia artificial en su trabajo, según Maura Grossman, profesora de la Facultad de Informática David R. Cheriton de la Universidad de Waterloo y profesora adjunta de Derecho en la Facultad de Derecho Osgoode Hall de la Universidad de York.

Grossman afirmó que las multas de 3.000 dólares, "en el fondo, fueron razonablemente leves, considerando que no se trataba de abogados inexpertos que simplemente no tendrían la razón. El tipo de errores que se cometieron aquí... fueron atroces". Grossman afirmó que se han dado numerosos casos de alto perfil en los que el uso de IA generativa ha resultado fallido para abogados y otras personas que presentan demandas. Se ha convertido en una tendencia habitual en los tribunales de todo Estados Unidos: se sanciona a los abogados por presentar mociones y otros documentos judiciales llenos de citas de casos que no son reales y fueron creadas por IA generativa. Damien Charlotin sigue casos judiciales de todo el mundo donde la IA generativa produjo contenido alucinatorio y donde un tribunal impuso específicamente advertencias u otras sanciones. Hasta el jueves, se habían identificado 206 casos, y eso solo desde la primavera, según declaró a NPR. Antes de abril había muy pocos casos, afirmó, pero desde hace meses, los casos "surgen a diario".

La base de datos de Charlotin no abarca todos los casos con alucinaciones. Sin embargo, añadió: "Sospecho que hay muchísimos más, pero muchos tribunales y partes prefieren no abordarlo porque es muy vergonzoso para todos los involucrados".

¿Qué salió mal en la presentación de MyPillow?

La multa de 3000 dólares para cada abogado, escribió la jueza Wang en su orden esta semana, es "la sanción menos severa, suficiente para disuadir y castigar a la defensa en este caso".

La jueza escribió que los dos abogados no dieron una explicación adecuada de cómo se produjeron estos errores —"el más flagrante, la citación de casos inexistentes".

Wang también afirmó que Kachouroff y DeMaster no fueron francos al ser interrogados sobre si la moción se generó mediante inteligencia artificial.

Kachouroff, en respuesta, declaró en los documentos judiciales que fue DeMaster quien "presentó por error" un borrador de esta presentación en lugar de la copia correcta, que fue editada con mayor cuidado y no incluía casos alucinados.

Pero Wang no estaba convencida de que la presentación de la presentación fuera un "error involuntario". De hecho, criticó a Kachouroff por no ser honesto al interrogarlo.

"No fue hasta que este Tribunal le preguntó directamente al Sr. Kachouroff si la Oposición era producto de inteligencia artificial generativa que el Sr. Kachouroff admitió que, de hecho, utilizó inteligencia artificial generativa", escribió Wang.

Grossman aconsejó a otros abogados que se encuentran en la misma situación que Kachouroff que no intenten encubrirlo y que se lo confiesen al juez lo antes posible.

"Es probable que reciban una pena más severa si no confiesan", afirmó.

Charlotin ha detectado tres problemas principales cuando los abogados u otros utilizan la IA para presentar documentos judiciales: el primero son los casos falsos creados, o alucinados, por chatbots de IA; el segundo es que la IA crea una cita falsa de un caso real; y el tercero es más difícil de detectar, explicó. Esto ocurre cuando la cita y el nombre del caso son correctos, pero el argumento legal citado no está realmente respaldado por el caso original, explicó Charlotin.

Este caso, que involucra a los abogados de MyPillow, es solo un microcosmos del creciente dilema de cómo los tribunales y los abogados pueden encontrar el equilibrio entre la aceptación de la tecnología transformadora y su uso responsable en los tribunales. El uso de la IA crece a un ritmo mayor que el que las autoridades pueden establecer límites a su uso.

Incluso se está utilizando para presentar pruebas en los tribunales, afirmó Grossman, y para proporcionar declaraciones sobre el impacto de las víctimas.

Este año, un juez de un tribunal de apelaciones del estado de Nueva York se enfureció después de que un demandante, representándose a sí mismo, intentara usar un avatar generado por IA, más joven y atractivo, para defender su caso, informó CNN. La medida fue rápidamente desestimada.

A pesar de las advertencias que aparecen en los titulares, tanto Grossman como Charlotin consideran la IA como una herramienta increíblemente útil para los abogados y predicen que se utilizará más en los tribunales, no menos.

Las normas sobre la mejor manera de usar la IA difieren entre jurisdicciones. Los jueces han creado sus propios estándares, exigiendo a los abogados y a quienes se representan a sí mismos en los tribunales que presenten declaraciones sobre la IA cuando la hayan utilizado. En algunos casos, los jueces de Carolina del Norte, Ohio, Illinois y Montana han establecido varias prohibiciones sobre el uso de IA en sus salas de audiencias, según un Base de datos creada por el bufete Ropes & Gray.

El Colegio de Abogados de Estados Unidos (American Bar Association), representante nacional de la profesión jurídica, publicó el año pasado su primera guía ética sobre el uso de IA. La organización advirtió](https://www.americanbar.org/news/abanews/aba-news-archives/2024/07/aba-issues-first-ethics-guidance-ai-tools/) que, dado que estas herramientas "están sujetas a errores, la confianza acrítica de los abogados en el contenido creado por una herramienta de inteligencia artificial generativa puede resultar en asesoramiento legal inexacto a los clientes o declaraciones engañosas ante los tribunales y terceros".

Continuó: "Por lo tanto, la confianza de un abogado en los resultados de una herramienta de IA generativa, o su presentación, sin un grado adecuado de verificación o revisión independiente de dichos resultados, podría incumplir el deber de brindar una representación competente". El Comité Asesor sobre las Reglas de Prueba, el grupo responsable de estudiar y recomendar cambios a las reglas nacionales de prueba para los tribunales federales, ha actuado con lentitud y aún trabaja en enmiendas para el uso de IA como prueba. (https://www.uscourts.gov/sites/default/files/document/2025-05_evidence_rules_committee_agenda_book_final.pdf)

Mientras tanto, Grossman ofrece esta sugerencia a quienes usan IA: "No confíen en nada, verifiquen todo".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd