Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4828

Incidentes Asociados

Incidente 96011 Reportes
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Loading...
Abogados admiten que IA “alucinó” casos presentados contra Walmart
5newsonline.com · 2025

WYOMING, EE. UU. — Los abogados que representan a una familia de Wyoming en una demanda contra Walmart y Jetson Electric Bikes admitieron haber usado inteligencia artificial para generar una moción previa al juicio después de que un juez federal dijera que casi todos los casos que citaron eran inexistentes, según muestran los registros judiciales.

La jueza Kelly Rankin dijo que el lenguaje utilizado en la moción previa al juicio de los demandantes y ocho casos no identificables que se citaron la llevaron a creer que se utilizó inteligencia artificial para escribir los documentos judiciales. Los abogados defensores sospecharon que la moción se había escrito utilizando ChatGPT después de descubrir algunos de los casos falsos en la plataforma de inteligencia artificial, dice el expediente.

El 6 de febrero, el juez ordenó a los abogados, Rudwin Ayala y T. Michael Morgan de Morgan & Morgan y Taly Goody de Goody Law Group, que explicaran cómo se creó la moción y por qué no deberían ser disciplinados. En su respuesta del 10 de febrero, los abogados admitieron que los casos presentados "no eran legítimos" y fueron "alucinados" por la plataforma de inteligencia artificial interna de la firma.

"Este asunto ha causado una gran vergüenza y ha provocado debates y acciones en relación con la formación, la implementación y el uso futuro de la inteligencia artificial en nuestra empresa", dice el expediente. "Esto sirve como advertencia para nuestra empresa y para todas las empresas, a medida que entramos en esta nueva era de la inteligencia artificial".

El caso se deriva de una demanda presentada por una familia de Wyoming en julio de 2023, en la que se alega que una patineta eléctrica que compraron en Walmart no funcionó correctamente y provocó un incendio que destruyó su casa en febrero de 2022. La familia, incluidos cuatro niños, dice que sufrió quemaduras graves y trauma emocional. Acusan a Walmart y Jetson de negligencia e incumplimiento de la garantía por vender un producto defectuoso que no era tan seguro como se anunciaba.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd