Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4823

Incidentes Asociados

Incidente 96011 Reportes
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Loading...
Juez multa a abogados en demanda contra Walmart por casos falsos generados con inteligencia artificial
reuters.com · 2025

25 feb (Reuters) - Tres abogados que demandaron a Walmart por lesiones personales deben pagar multas por un total de 5.000 dólares por citar casos falsos generados por inteligencia artificial en una presentación judicial, dictaminó un juez federal.

Los abogados, incluidos dos de la firma de abogados nacional Morgan & Morgan y uno de una firma más pequeña, tenían la obligación ética de garantizar que los casos que citaban fueran reales, dijo el juez de distrito de EE. UU. Kelly Rankin en Wyoming en su orden de sanciones, abre una nueva pestaña el lunes.

"A medida que los abogados hacen la transición al mundo de la IA, el deber de verificar sus fuentes y hacer una investigación razonable sobre la ley existente permanece sin cambios", escribió Rankin.

En los últimos dos años, jueces de todo el país han cuestionado o sancionado a un número cada vez mayor de abogados por incluir casos y citas generados por IA en documentos judiciales. Han surgido ejemplos en al menos nueve demandas desde que los chatbots como ChatGPT marcaron el comienzo de la era de la IA, lo que pone de relieve un nuevo riesgo de litigio.

Rankin impuso una multa de 3.000 dólares a Rudwin Ayala, de Morgan & Morgan, quien a principios de este mes se disculpó y dijo que utilizó un programa interno de IA que "alucinaba" los casos, que incorporó a una presentación en el caso.

El juez también eliminó a Ayala de la demanda e impuso multas de 1.000 dólares a cada uno de ellos: T. Michael Morgan y el abogado local Taly Goody de Goody Law Group, por no hacer lo suficiente para garantizar la precisión de la presentación que redactó Ayala.

Ayala, Morgan y un representante de Morgan & Morgan no respondieron de inmediato a las solicitudes de comentarios el martes. Morgan es hijo del fundador de Morgan & Morgan, John Morgan, según informes anteriores de los medios.

Goody dijo en un correo electrónico que no recibió la presentación para revisarla antes de que se presentara, y señaló una explicación anterior que proporcionó al tribunal.

Walmart se negó a hacer comentarios. Ha negado las acusaciones en la demanda subyacente, que acusa al minorista de vender un juguete de patineta eléctrica defectuoso que supuestamente se incendió y quemó la casa de los demandantes. El caso está programado para ir a juicio el próximo mes.

Al decidir las sanciones, el juez dijo que sopesó el hecho de que los abogados "han estado sobre aviso" sobre la capacidad de la IA generativa para alucinar casos. Dijo que la "honestidad y franqueza" de Ayala y las medidas adoptadas por Morgan & Morgan para evitar futuros incidentes ayudaron a que se aplicara un castigo menos severo.

"Cuando se hace bien, la IA puede ser increíblemente beneficiosa para los abogados y el público", escribió Rankin. "El caso en cuestión es simplemente el último recordatorio de que no hay que confiar ciegamente en las citas de las plataformas de IA, independientemente de la profesión".

En un caso separado, un magistrado federal de Indiana recomendó la semana pasada una multa de 15.000 dólares para un abogado que presentó tres escritos que tenían citas de casos inexistentes generadas por IA y lo remitió al juez principal para una posible sanción adicional.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd