Bienvenido ala base de datos de incidentes de IA
Incidente 1447: Sixth Circuit Sanctioned Lawyers in Whiting v. City of Athens over Alleged Fake Appellate Citations in Briefs Reportedly Bearing Hallmarks of Hallucinations
“US appeals court fines lawyers $30,000 in latest AI-related sanction”Último informe
March 16 (Reuters) - An appeal containing fake case citations that misrepresent the law can be dismissed as frivolous, a U.S. federal appeals court panel said in a decision sanctioning two attorneys who submitted filings that bore hallmarks of artificial intelligence "hallucinations."
The Cincinnati-based 6th U.S. Circuit Court of Appeals said in its order, opens new tab on Friday that attorneys Van Irion and Russ Egli "sullied the reputation of our bar, which now must litigate under the cloud of their conduct."
The court said it found more than two dozen fake citations and misrepresentations of fact in the appeal, which involved an incident at a fireworks show hosted by the city of Athens, Tennessee.
The appeals court in a prior order in the case asked the attorneys how they vetted their briefs for accuracy and whether they used generative AI to write the filings. The attorneys did not answer the court's questions about AI, and instead challenged the lawfulness of the order.
The two attorneys must reimburse Athens for its legal work on the appeal, and also must individually pay $15,000 each to the appeals court as a punitive sanction, according to the order.
Egli and Irion in a statement on Tuesday said they "categorically" deny the court's allegations of citing fake cases, and also contend they were denied a meaningful chance to respond to the panel's questions.
"We are pursuing all available legal remedies to challenge this procedurally deficient order and defend the integrity of the judicial process," the lawyers' statement said. Irion told Reuters that "the Circuit Court is ignoring its own rules, and clerks are signing substantive orders without authorization."
Athens Mayor Larry Eaton in a statement on Monday said the appeals court in a related order upheld the dismissal of several lawsuits against the city over the 2022 fireworks event. Eaton called the decision "reassuring."
The sanctions decision comes as more courts grapple with fake case citations and other errors attributable to generative artificial intelligence platforms, which sometimes fabricate information. Lawyers are not prohibited from using AI tools but are bound to safeguard the accuracy of their submissions, and dozens of attorneys have been sanctioned in recent years for submitting AI-generated material that they failed to vet.
Irion and Egli had contested, opens new tab the appeals court's demand for details about how they prepared their filings partly on the grounds that doing so would violate protections for attorneys' work-product and communications with clients.
The 6th Circuit panel, Circuit Judges John Bush, Jane Branstetter Stranch and Eric Murphy, said "whether and how the briefs were cite-checked does not implicate conversations regarding legal advice."
"Most litigants caught submitting fake cases have apologized and sought forgiveness, rightly recognizing the seriousness of their misconduct," Bush wrote for the panel.
The judges said by contrast "Irion and Egli scolded this court and accused it of engaging in a vast conspiracy to harass them."
The case is Whiting v. City of Athens, 6th U.S. Circuit Court of Appeals, No. 25-5424.
Incidente 1448: Ohio Man Pleaded Guilty after Prosecutors Alleged He Used AI to Create and Distribute Nonconsensual Intimate-Image Forgeries Including CSAM in Harassment Campaign
“Ohio man becomes first to be convicted under new AI statute for sexually explicit images”
An Ohio man pleaded guilty on Tuesday to cybercrimes involving real and AI-generated "sexually explicit images", becoming what the Department of Justice claims is the first person convicted under a new federal AI statute.
James Strahler II, 37, admitted to cyberstalking, producing obscene visual representations of child sexual abuse, and publication of digital forgeries. The last charge relates to the Take It Down Act, which "prohibits non-consensual online publication of intimate visual depictions and AI forgeries".
"We believe Strahler is the first person in the United States to be convicted under the Take It Down Act," Dominick Gerace II, US attorney for the southern district of Ohio, said. "We will not tolerate the abhorrent practice of posting and publicizing AI-generated intimate images of real individuals without consent."
"We are committed to using every tool at our disposal to hold accountable offenders like Strahler, who seek to intimidate and harass others by creating and circulating this disturbing content."
Donald Trump signed the Take It Down Act into law last May. Melania Trump, the first lady, lobbied lawmakers to pass the legislation and symbolically signed it.
The law prohibits anyone from "knowingly" publishing or threatening to publish intimate images, including AI-made "deepfake" images, without consent. Social media companies and websites must remove violating content within 48 hours following a victim's request.
Prosecutors said Strahler sent harassing messages to at least six adult females, including both real and AI-created nude images of them, from December 2025 to June 2025.
Strahler purportedly used AI to make pornographic videos showing at least one adult victim engaging in sexual activity with her father and "distributed those videos to the victim's co-workers".
Strahler, according to prosecutors, sent messages to the mothers of these women and demanded nude pictures of them, "threatening to circulate explicit or obscene images he created of their daughters if they did not comply".
"He often called the victims and left voicemails of him masturbating or threatening rape," prosecutors said.
Prosecutors also said Strahler published AI-generated obscene material involving children, "using the faces of minor boys from his community".
He would then purportedly put the minors' faces on to the bodies of adults or other children and make obscene videos with AI. In total, prosecutors said, Strahler created "more than 700 images of both real victims and animated persons and posted them to a website dedicated to child sexual abuse".
Strahler's lawyer did not immediately respond to a request for comment.
Incidente 1445: Un empleado de la CDU de Baja Sajonia habría compartido un supuesto deepfake sexualizado de una compañera en un grupo interno de WhatsApp.
“"Nos hubiera gustado adoptar una postura más clara": así explica internamente la CDU el asunto de los deepfakes.”
La CDU de Baja Sajonia se encuentra conmocionada por un escándalo de deepfake. El presidente estatal, Sebastian Lechner, se dirigió a los miembros mediante una carta. Desea "comunicarse de forma proactiva", pero por razones cruciales, esto no es posible.
En relación con el caso de la supuesta creación de un vídeo sexualizado mediante IA dentro del grupo parlamentario de la CDU de Baja Sajonia, el presidente estatal, Sebastian Lechner, se dirigió a los miembros del partido mediante una carta. En la carta interna, a la que WELT ha tenido acceso, Lechner describe la revelación de las acusaciones como "una noticia impactante para todos nosotros", que los ha dejado "sin palabras".
No obstante, el partido "comunicó proactivamente" el asunto y publicó un comunicado. "Nos hubiera gustado adoptar una postura más clara al respecto y proporcionar más información", continuó Lechner, "pero esto no fue posible por razones legales".
Se ha contratado a un bufete de abogados especializado en medios de comunicación y se ha decidido, "para proteger los derechos personales de todos los implicados", abstenerse de emitir más declaraciones por el momento. Porque: El grupo parlamentario, como empleador, tiene el deber de velar por el bienestar de sus empleados, «incluso si se ha producido alguna falta».
Respecto a las medidas que se tomarán, Lechner escribe: «Todo debe investigarse de forma transparente y exhaustiva». Cooperarán plenamente con la justicia. «Seguiremos extrayendo todas las conclusiones necesarias. Para que quede perfectamente claro: en la CDU no se tolera el pensamiento ni la conducta misógina», afirma Lechner. «Obviamente, aún existen deficiencias» en el camino hacia la transformación de la CDU de Baja Sajonia en un «partido moderno e innovador»; el escándalo actual lo ha dejado más que patente.
Ahora quiere «aprovechar la crisis como una oportunidad», declara Lechner, sin dar más detalles. Para ello, será necesaria, en particular, «la experiencia de las numerosas mujeres» del partido.
El empleado en cuestión fue despedido sin previo aviso.
Antecedentes del caso: La tarde del 17 de enero de 2026, varios empleados del grupo parlamentario de la CDU de Baja Sajonia recibieron un mensaje en sus teléfonos móviles. En un chat privado compartido de WhatsApp, un alto cargo del grupo parlamentario publicó un breve vídeo generado por IA que mostraba a otra alta empleada del grupo de forma claramente sexualizada: un deepfake.
Dos meses después, este mensaje desató un escándalo político en el parlamento estatal de Hannover. Según información obtenida por WELT, el líder del grupo parlamentario, Sebastian Lechner, y la directora parlamentaria, Carina Hermann, se enteraron del vídeo recientemente y acortaron sus vacaciones de Semana Santa. Tras varias reuniones de crisis en Hannover, el empleado que aparentemente creó el vídeo fue suspendido ese mismo día y posteriormente despedido sin previo aviso. No respondió a las reiteradas consultas de WELT.
Un portavoz de la fiscalía de Hannover confirmó el incidente y la investigación a la agencia de noticias alemana dpa. Sin embargo, aún no se ha iniciado ninguna investigación formal.
Según se informa, la fiscalía ha revisado el breve vídeo. «Aparece una mujer bailando en bikini. Esta mujer parece ser miembro del personal del grupo parlamentario de la CDU», declaró un portavoz. El vídeo es «claramente un montaje generado por IA». Se sospecha que se insertó digitalmente una imagen real de la mujer en el vídeo. Existe software que permite hacerlo.
Actualmente no se está llevando a cabo ninguna investigación contra el presunto creador del vídeo, un empleado del grupo parlamentario de la CDU, añadió el portavoz. No hay pruebas de difamación en el vídeo en sí; sin embargo, existe la sospecha de una violación de la ley de derechos de autor si se alteró la foto de la mujer. Se trata de un delito de acusación particular, explicó el fiscal. La fiscalía solo puede actuar si se presenta una denuncia formal.
Hasta el momento, no se ha presentado ninguna denuncia formal, indicó el portavoz. El plazo de tres meses para presentar dicha denuncia aún no ha expirado; este plazo comienza a contar desde el momento en que la parte afectada tiene conocimiento del contenido. Según se indicó, si para entonces se presenta una denuncia formal, la fiscalía revisará nuevamente el caso.
Incidente 1446: Según informes, los subtítulos de traducción automática de KBS emitieron lenguaje obsceno durante la transmisión en vivo del lanzamiento de Artemis II.
““Date la vuelta, perra”… El desastre de la transmisión en vivo de KBS con subtítulos de palabrotas creados con IA.”
KBS ha emitido una disculpa oficial por el incidente en el que se mostraron palabras obscenas en los subtítulos durante la transmisión en vivo del lanzamiento de Artemis 2.
El 2 de mayo, KBS declaró en su página de la comunidad de YouTube: "Durante la transmisión en vivo de la NASA, algunas palabras se tradujeron incorrectamente a obscenidades debido a pronunciaciones similares durante el proceso de traducción automática en tiempo real mediante IA". La compañía añadió: "Pedimos disculpas sinceras a nuestros espectadores por la exposición de frases incorrectas que contenían obscenidades".
Anteriormente, KBS utilizó la traducción automática mediante IA durante la transmisión en vivo del lanzamiento de Artemis 2 el 2 de mayo. Durante el proceso de traducción automática, la IA tradujo erróneamente términos técnicos de aviación como "roger" (confirmación de recepción), "roll" y "pitch" como "Roger, Gulleo, Ix-ah", lo que resultó en la traducción incorrecta de estas expresiones.
El video del incidente se difundió rápidamente en línea. Los internautas reaccionaron con comentarios como: «Es indignante que una emisora financiada con el dinero de los contribuyentes utilice subtítulos con lenguaje soez», «Incluso en una transmisión en directo, hay límites que no se deben cruzar» y «¿No deberían haber implementado al menos algunas medidas de seguridad, aunque se trate de traducción automática?».
Ante la creciente polémica, KBS publicó rápidamente una disculpa y prometió evitar que se repitiera. KBS añadió: «Hemos implementado medidas para evitar que se vuelva a producir el error de traducción en cuestión. Estamos colaborando estrechamente con los departamentos pertinentes y las empresas asociadas para prevenir incidentes similares y estamos preparando medidas de mejora, como el fortalecimiento del filtrado de lenguaje soez mediante IA».
Mientras tanto, la misión Artemis-2 fue lanzada con éxito desde el Centro Espacial Kennedy en Florida, EE. UU., a las 18:35 (hora del este) del día 1. Está previsto que regrese al océano Pacífico cerca de San Diego tras un vuelo de aproximadamente 10 días.
Incidente 1442: Según informes, la herramienta de codificación de IA Kiro estuvo implicada en una interrupción de 13 horas del servicio AWS Cost Explorer en China continental.
“Amazon culpa a los empleados humanos del error de un agente de programación de IA.”
Amazon Web Services sufrió una interrupción de 13 horas en uno de sus sistemas en diciembre como consecuencia de las acciones de su asistente de codificación con IA, Kiro, según el Financial Times. Numerosos empleados de Amazon, que prefirieron permanecer en el anonimato, declararon al FT que el agente de IA Kiro fue el responsable del incidente de diciembre que afectó a un servicio de AWS en algunas zonas de China continental. Fuentes cercanas al caso indicaron que la herramienta optó por "eliminar y recrear el entorno" en el que estaba trabajando, lo que provocó la interrupción.
Si bien Kiro normalmente requiere la aprobación de dos personas para implementar cambios, el bot contaba con los permisos de su operador, y un error humano le otorgó un acceso mayor del previsto.
Amazon describió la interrupción de diciembre como un "evento extremadamente limitado" que palidece en comparación con la importante interrupción de octubre, que dejó fuera de servicio durante horas servicios en línea como Alexa, Fortnite, ChatGPT y Amazon. Que una interrupción no dejara a nadie atrapado en su cama inteligente es, en cierto modo, un alivio.
No es la única vez que las herramientas de codificación de IA han causado problemas a Amazon. Un empleado sénior de AWS afirmó que la interrupción de diciembre es la segunda interrupción de producción vinculada a una herramienta de IA en los últimos meses, siendo la otra relacionada con el chatbot de IA de Amazon, Q Developer. El empleado describió las interrupciones como "pequeñas, pero totalmente previsibles". Amazon afirmó que el segundo incidente no afectó a ningún servicio de AWS de cara al cliente.
Amazon atribuye los problemas a errores humanos, no al bot malicioso, y aseguró haber implementado numerosas medidas de seguridad, como la capacitación del personal, tras el incidente. La compañía afirmó que fue una coincidencia que estuvieran involucradas herramientas de IA e insiste en que el mismo problema podría ocurrir con cualquier herramienta de desarrollo o acción manual. Es cierto, y aunque no soy ingeniero, supongo que nadie desecharía y reconstruiría algo deliberadamente para realizar un cambio, salvo en las circunstancias más extremas.
Enviar URL Rapidamente
Acerca de la Base de Datos
La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.
Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...
La Base de Datos en la Prensa
Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.
Rankings de Reportadores de Incidentes
Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.
El Informe de Incidentes de IA

Create an account to subscribe to new incident notifications and other updates.
Incidentes Aleatorios
El Colaborativo de IA Responsable
La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Patrocinador fundador de la organización
Patrocinador fundador de la base de datos





