Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1252: Jueces de Nueva Jersey y Mississippi admiten que las herramientas de IA produjeron documentos judiciales federales erróneos.

Traducido por IA
Descripción:
Traducido por IA
Dos jueces federales estadounidenses, Julien Neals (demócrata por Nueva Jersey) y Henry Wingate (Distrito Sur de Misisipi), admitieron que personal de sus juzgados utilizó herramientas de inteligencia artificial, ChatGPT y Perplexity, para redactar resoluciones que contenían citas, casos y partes supuestamente inventadas. Al parecer, los documentos erróneos se registraron antes de su revisión, lo que motivó investigaciones del Senado y del poder judicial. Ambas resoluciones fueron revocadas.
Editor Notes: Timeline notes: The reported timeline of events is as follows: (1) 06/30/2025, U.S. District Judge Julien Neals (District of New Jersey) issued an opinion in a securities case against CorMedix Inc. that reportedly contained fabricated case citations and quotes later traced to ChatGPT use by a law school intern; (2) 07/20/2025, U.S. District Judge Henry Wingate (Southern District of Mississippi) issued a temporary restraining order with fictitious plaintiffs and quotations, reportedly drafted with Perplexity AI by a law clerk; (3) 07/22/2025, Wingate retracted and reissued the order after being alerted to errors; (4) 10/20–10/21/2025, both judges admitted AI involvement in letters to Senator Chuck Grassley and the Administrative Office of the U.S. Courts; (5) 10/23/2025, Bloomberg Law reported the admissions; (6) 10/29/2025, The Washington Post published a detailed account confirming Senate inquiry and judicial reforms. The incident ID was added on 10/29/2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: OpenAI y Perplexity AI developed an AI system deployed by United States District Court for the District of New Jersey , United States District Court for the Southern District of Mississippi , Julien Neals , Henry Wingate , Unnamed law clerk (S.D. Miss.) y Unnamed law school intern (D.N.J.), which harmed United States District Court for the District of New Jersey , United States District Court for the Southern District of Mississippi , Julien Neals , Henry Wingate , Plaintiffs and defendants in CorMedix Securities Litigation , Plaintiffs and defendants in Jackson Federation of Teachers et al. v. Mississippi State Board of Education , Epistemic integrity y Judicial integrity.
Sistemas de IA presuntamente implicados: ChatGPT y Perplexity

Estadísticas de incidentes

ID
1252
Cantidad de informes
2
Fecha del Incidente
2025-06-30
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceJueces admiten usar IA después de que se denunciaran fallos inventados (1)Jueces federales que utilizaron IA presentaron órdenes judiciales con citas falsas y nombres ficticios.
Loading...
Jueces admiten usar IA después de que se denunciaran fallos inventados (1)

Jueces admiten usar IA después de que se denunciaran fallos inventados (1)

news.bloomberglaw.com

Loading...
Jueces federales que utilizaron IA presentaron órdenes judiciales con citas falsas y nombres ficticios.

Jueces federales que utilizaron IA presentaron órdenes judiciales con citas falsas y nombres ficticios.

washingtonpost.com

Loading...
Jueces admiten usar IA después de que se denunciaran fallos inventados (1)
news.bloomberglaw.com · 2025
Traducido por IA

Dos jueces federales atribuyeron fallos erróneos al uso de herramientas de inteligencia artificial por parte de su personal, lo que generó dudas sobre el grado de rigor con que revisan los documentos emitidos a su nombre.

Los jueces de dist…

Loading...
Jueces federales que utilizaron IA presentaron órdenes judiciales con citas falsas y nombres ficticios.
washingtonpost.com · 2025
Traducido por IA

Dos jueces federales de Nueva Jersey y Misisipi admitieron este mes que sus oficinas utilizaron inteligencia artificial para redactar documentos judiciales con errores de hecho, incluyendo citas falsas y litigantes ficticios, lo que provocó…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 informes
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 informes
Loading...
Google and Delphi Self-Driving Prototypes Allegedly Involved in Near-Miss on San Antonio Road, Palo Alto

Google and Delphi Self-Driving Prototypes Allegedly Involved in Near-Miss on San Antonio Road, Palo Alto

Jun 2015 · 12 informes
Incidente Anterior

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 informes
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 informes
Loading...
Google and Delphi Self-Driving Prototypes Allegedly Involved in Near-Miss on San Antonio Road, Palo Alto

Google and Delphi Self-Driving Prototypes Allegedly Involved in Near-Miss on San Antonio Road, Palo Alto

Jun 2015 · 12 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65