Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4829

Incidentes Asociados

Incidente 96011 Reportes
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Loading...
Juez federal sanciona a abogados de Morgan & Morgan por casos falsos generados con inteligencia artificial en presentación judicial
lawnext.com · 2025

Es posible que haya escuchado la noticia a principios de este mes de que los abogados del bufete de abogados de los demandantes Morgan & Morgan (el 42.º bufete de abogados más grande de Estados Unidos por número de empleados) se enfrentaban a sanciones por la presentación de expedientes judiciales que contenían casos legales falsos generados por inteligencia artificial.

Ahora, la jueza federal de Wyoming que preside el caso, la jueza de distrito de EE. UU. Kelly H. Rankin, en una orden presentada ayer, ha impuesto sanciones a los tres abogados responsables de las presentaciones, al determinar que violaron la Regla 11 de las Reglas Federales de Procedimiento Civil, que exige que los abogados realicen una investigación razonable de la ley antes de presentar argumentos legales.

En el caso de responsabilidad por productos, Wadsworth v. Walmart Inc. y Jetson Electric Bikes, LLC, al abogado de Morgan & Morgan, Rudwin Ayala, se le revocó la admisión pro hac vice y se le ordenó pagar una multa de $3,000, mientras que el abogado supervisor T. Michael Morgan y la abogada local Taly Goody, que tiene su propia firma, fueron multados con $1,000 cada uno por su papel en la presentación de mociones in limine que citaban ocho casos inexistentes.

Según el fallo del tribunal, Ayala utilizó la plataforma de inteligencia artificial interna de su firma, MX2.law, para generar jurisprudencia al redactar las mociones. Subió su borrador y le dio al sistema de inteligencia artificial indicaciones que incluían "agregar a esta Moción in Limine Jurisprudencia Federal de Wyoming que establece los requisitos para las mociones in limine" y "agregar más jurisprudencia con respecto a las mociones in limine".

Sin verificar la precisión de las citas generadas por IA, Ayala las incluyó en las presentaciones, que luego fueron firmadas por los tres abogados.

“Una opinión falsa no es una ‘ley existente’ y la cita de una opinión falsa no proporciona un fundamento no frívolo para ampliar, modificar o revertir la ley existente, o para establecer una nueva ley”, escribió el juez Rankin, citando a Mata v. Avianca, Inc., un caso de 2023 del Distrito Sur de Nueva York que fue uno de los primeros en abordar las alucinaciones de IA en los documentos legales.

El tribunal rechazó los argumentos de Morgan y Goody de que no deberían ser considerados responsables porque no redactaron las mociones. El juez Rankin enfatizó que firmar un documento legal “garantiza que el abogado lea el documento y realice una investigación razonable sobre la ley existente” y que este deber es “indelegable”.

“La confianza ciega en otro abogado puede ser una delegación indebida de este deber y una violación de la Regla 11”, escribió el juez.

“Todos los abogados aprendieron en su clase de contratos de primer año que el hecho de no leer un contrato no exime al firmante de sus obligaciones contractuales… De manera similar, quien firma una moción o presentación y no inspecciona razonablemente la ley citada en ella viola la Regla 11 por sus términos expresos”.

El tribunal reconoció que los abogados retiraron rápidamente las mociones después de que se emitió la orden de mostrar causa, fueron francos sobre el uso de IA, pagaron los honorarios de los abogados de la parte contraria e implementaron políticas y capacitación para prevenir futuras ocurrencias. Estas medidas correctivas se consideraron factores atenuantes para determinar las sanciones apropiadas.

El juez Rankin se negó a sancionar al bufete de abogados de los abogados, señalando que Morgan & Morgan había capacitado a sus empleados para que no usaran software de IA en la forma en que lo había hecho Ayala y desde entonces había implementado un reconocimiento adicional que requería que los usuarios verificaran de forma independiente la información generada por IA.

En la opinión, el juez Rankin reconoce los beneficios potenciales de la IA en la ley. “Cuando se hace bien, la IA puede ser increíblemente beneficiosa para los abogados y el público. Los abogados probablemente podrán proporcionar rápidamente una investigación precisa y redactar mociones, lo que puede ahorrar costos para los clientes”.

Aun así, enfatizó, “Si bien la tecnología continúa evolucionando, una cosa sigue siendo igual: verificar la fuente… A medida que los abogados hacen la transición al mundo de la IA, el deber de verificar sus fuentes y hacer una investigación razonable sobre la ley vigente sigue siendo inalterable”.

Para los abogados, escribió el juez, la moraleja es simple: “Realice una investigación razonable sobre la ley antes de firmar (o dar permiso a otra persona para firmar) un documento, como lo exige la Regla 11. Si un abogado no lo hace, entonces no debería firmar el documento”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd