Bienvenido ala base de datos de incidentes de IA
Incidente 1450: Un hombre de Florida presuntamente utilizó un supuesto video deepfake para denunciar el robo del vehículo patrulla de un agente en Lake Mary.
“Un hombre de Florida presuntamente utilizó un video deepfake generado por IA para denunciar falsamente el robo del vehículo patrulla de un agente en Lake Mary.”Último informe
CONDADO DE SEMINOLE, Florida – Un hombre del sur de Florida fue arrestado tras mostrar un video generado por inteligencia artificial a un agente en una tienda de Lake Mary el mes pasado, según la Oficina del Sheriff del Condado de Seminole.
En un comunicado, la Oficina del Sheriff indicó que el agente se encontraba dentro de Academy Sports, en Lake Emma Road, cuando el hombre, identificado como Alexis Martínez-Arizala, de 25 años, se le acercó.
"(Martínez-Arizala) afirmó haber visto a varias personas entrar en el vehículo patrulla del agente en el estacionamiento y presentó un video de su teléfono celular como prueba", dice el comunicado. "El video, de aproximadamente tres segundos de duración, parecía mostrar a dos individuos entrando en el vehículo patrulla estacionado cerca de la tienda".
Pero cuando el agente revisó su patrulla, no encontró nada alterado ni robado, señalaron los investigadores.
En cambio, las imágenes de las cámaras de seguridad de la tienda mostraron que nadie se había acercado al vehículo patrulla durante ese lapso de tiempo, y los agentes concluyeron posteriormente que el video del teléfono celular había sido manipulado. Por lo tanto, se emitió una orden de arresto contra Martínez-Arizala, quien fue detenido el miércoles tras ser localizado en San Juan, Puerto Rico.
"Los investigadores también descubrieron que Martínez-Arizala publicó contenido relacionado con el incidente en sus redes sociales, en un aparente intento de llamar la atención y generar contenido viral", continúa el comunicado.
Ahora, Martínez-Arizala enfrenta cargos por falsificación de pruebas, denuncia falsa ante las autoridades, uso indebido de un dispositivo de comunicación bidireccional y proporcionar información falsa a sabiendas a un agente de la ley sobre la presunta comisión de un delito.
Será extraditado al condado de Seminole, donde permanecerá detenido bajo fianza de $7,000.
"El uso indebido de la inteligencia artificial para crear videos deepfake es una preocupación creciente, especialmente cuando se dirige contra profesionales de la seguridad pública", declaró el sheriff Dennis Lemma. Estos vídeos manipulados pueden dañar reputaciones, generar tensiones innecesarias y plantear serios problemas de seguridad para los servicios de emergencia que sirven a nuestras comunidades. A medida que esta tecnología se vuelve más accesible, nos tomamos muy en serio este tipo de delitos y actuaremos para proteger a quienes son blanco de estos ataques en nuestra comunidad, incluyendo tanto a los ciudadanos como a los profesionales de la seguridad pública que trabajan a diario para mantener a salvo a nuestros residentes.
Incidente 1447: El Sexto Circuito sancionó a los abogados en el caso Whiting contra la ciudad de Athens por presuntas citas de apelación falsas en escritos que, según se informa, presentaban características propias de alucinaciones.
“Un tribunal de apelaciones de EE. UU. multa a abogados con 30.000 dólares en la última sanción relacionada con la IA.”
16 de marzo (Reuters) - Un panel de un tribunal federal de apelaciones de EE. UU. dictaminó que una apelación que contiene citas falsas de casos que tergiversan la ley puede ser desestimada por frívola, en una decisión que sanciona a dos abogados que presentaron documentos con características propias de "alucinaciones" de inteligencia artificial.
El Sexto Circuito de Apelaciones de EE. UU., con sede en Cincinnati, declaró el viernes en su auto (https://fingfx.thomsonreuters.com/gfx/legaldocs/zjvqmegykvx/6th%20Circuit%20sanctions%20order.pdf) que los abogados Van Irion y Russ Egli "mancharon la reputación de nuestro colegio de abogados, que ahora debe litigar bajo la sombra de su conducta".
El tribunal indicó que encontró más de dos docenas de citas falsas y tergiversaciones de hechos en la apelación, que involucraba un incidente en un espectáculo de fuegos artificiales organizado por la ciudad de Athens, Tennessee. En una orden previa del caso, el tribunal de apelaciones preguntó a los abogados cómo verificaron la exactitud de sus escritos y si utilizaron inteligencia artificial generativa para redactarlos. Los abogados no respondieron a las preguntas del tribunal sobre la IA y, en cambio, impugnaron la legalidad de la orden.
Según la orden, los dos abogados deben reembolsar a Athens los honorarios legales incurridos en la apelación y, además, pagar individualmente 15.000 dólares cada uno al tribunal de apelaciones como sanción punitiva.
Egli e Irion, en un comunicado emitido el martes, afirmaron que niegan categóricamente las acusaciones del tribunal sobre la citación de casos falsos y sostienen que se les negó una oportunidad real de responder a las preguntas del panel.
"Estamos ejerciendo todos los recursos legales disponibles para impugnar esta orden, que presenta deficiencias procesales, y defender la integridad del proceso judicial", indicaron los abogados en su comunicado. Irion declaró a Reuters que "el Tribunal de Circuito está ignorando sus propias normas y los secretarios judiciales están firmando órdenes sustantivas sin autorización".
El alcalde de Atenas, Larry Eaton, afirmó el lunes que el tribunal de apelaciones, en una orden relacionada, confirmó la desestimación de varias demandas contra la ciudad por el evento de fuegos artificiales de 2022. Eaton calificó la decisión de "tranquilizadora".
La decisión sobre las sanciones se produce en un momento en que más tribunales se enfrentan a citas de casos falsas y otros errores atribuibles a plataformas de inteligencia artificial generativa, que en ocasiones fabrican información. Los abogados no tienen prohibido usar herramientas de IA, pero están obligados a salvaguardar la exactitud de sus presentaciones, y decenas de abogados han sido sancionados en los últimos años por presentar material generado por IA sin haberlo revisado.
Irion y Egli impugnaron la solicitud del tribunal de apelaciones de que se les proporcionaran detalles sobre cómo prepararon sus presentaciones, argumentando, en parte, que hacerlo violaría la protección del secreto profesional de los abogados y sus comunicaciones con los clientes.
El panel del Sexto Circuito, integrado por los jueces John Bush, Jane Branstetter Stranch y Eric Murphy, declaró que «el hecho de que se hayan revisado las citas de los escritos, y cómo se haya hecho, no implica conversaciones sobre asesoramiento legal».
«La mayoría de los litigantes que presentaron demandas falsas se disculparon y pidieron perdón, reconociendo con razón la gravedad de su mala conducta», escribió Bush en nombre del panel.
Los jueces, por el contrario, afirmaron: «Irion y Egli reprendieron a este tribunal y lo acusaron de participar en una vasta conspiración para acosarlos».
El caso es Whiting contra la Ciudad de Atenas, Tribunal de Apelaciones del Sexto Circuito de los Estados Unidos, n.° 25-5424.
Incidente 1448: Un hombre de Ohio se declaró culpable después de que los fiscales alegaran que utilizó inteligencia artificial para crear y distribuir falsificaciones de imágenes íntimas no consentidas, incluyendo material de abuso sexual infantil, en una campaña de acoso.
“Un hombre de Ohio se convierte en el primero en ser condenado bajo la nueva ley de IA por imágenes sexualmente explícitas.”
Un hombre de Ohio [se declaró culpable](https://www.justice.gov/usao-sdoh/pr/columbus-man-pleads-guilty-cyberstalking-exes-creating-ai-generated-obscene-material?bm-verify=AAQAAAAN_____9-9OWtVekgqd6NDbGwoh66uy6NYDXtfPet_kl6Il7rxxv-J9Bsg_F_GDAeYijs8Ew-bpQQwpg7lpelqiMvN683iG2HohOeHSD1XvB7TjpkzpW- xdMnoTVy8au02P0UvzZqV22OAOaHFxYDgVXVgVIb9tKl33WZtlooaKf1YhnpkL8HSXICzeiBNiWmx0toDFesbQxyT02iR2P9VKGxn37ILpXx1_mzBTPyYD_7rYaOKuHTAz4DHCoBi2kL7b-tXWt-XYgK-c_XY3zHd0MaM2IKqM7Dl3z0JPproqd4lVvE-YvkMFn7jLJi5t06DeNY_e0jZVWKQE0I68ZEW--EJ7QVy72iF3eaVqHa74G5feOsq5KAXPkI) en El martes, James Strahler II, de 37 años, fue acusado de ciberdelitos relacionados con imágenes explícitas, tanto reales como generadas por IA, convirtiéndose así en la primera persona condenada en virtud de una nueva ley federal sobre IA.
El Departamento de Justicia afirma que Strahler II fue declarado culpable de ciberacoso, producción de representaciones visuales obscenas de abuso sexual infantil y publicación de falsificaciones digitales. Este último cargo se relaciona con la Ley de Retirada de Contenido (Take It Down Act), que prohíbe la publicación en línea sin consentimiento de imágenes íntimas y falsificaciones generadas por IA.
"Creemos que Strahler es la primera persona en Estados Unidos condenada en virtud de la Ley de Retirada de Contenido", declaró Dominick Gerace II, fiscal federal del distrito sur de Ohio. "No toleraremos la práctica abominable de publicar y difundir imágenes íntimas de personas reales generadas por IA sin su consentimiento".
Nos comprometemos a utilizar todas las herramientas a nuestro alcance para exigir responsabilidades a delincuentes como Strahler, que buscan intimidar y acosar a otros creando y difundiendo este contenido perturbador.
Donald Trump promulgó la Ley de Eliminación de Contenido Inapropiado el pasado mes de mayo. Melania Trump, la primera dama, presionó a los legisladores para que aprobaran la ley y la firmó simbólicamente.
La ley prohíbe publicar o amenazar con publicar imágenes íntimas, incluidas las imágenes "deepfake" creadas con inteligencia artificial, sin consentimiento. Las empresas de redes sociales y los sitios web deben eliminar el contenido que infrinja la ley en un plazo de 48 horas tras la solicitud de la víctima.
Según la fiscalía, Strahler envió mensajes de acoso a al menos seis mujeres adultas, incluyendo imágenes de ellas desnudas, tanto reales como creadas con inteligencia artificial, entre diciembre y junio de 2025.
Strahler presuntamente utilizó inteligencia artificial para crear videos pornográficos que mostraban al menos a una víctima adulta manteniendo relaciones sexuales con su padre y "distribuyó esos videos entre los compañeros de trabajo de la víctima".
Según la fiscalía, Strahler envió mensajes a las madres de estas mujeres exigiéndoles fotos de ellas desnudas, "amenazando con difundir imágenes explícitas u obscenas que él mismo había creado de sus hijas si no accedían".
"A menudo llamaba a las víctimas y les dejaba mensajes de voz masturbándose o amenazándolas con violarlas", declaró la fiscalía.
La fiscalía también afirmó que Strahler publicó material obsceno generado con inteligencia artificial que involucraba a menores, "utilizando los rostros de niños de su comunidad".
Posteriormente, presuntamente colocaba los rostros de los menores en cuerpos de adultos u otros niños y creaba videos obscenos con inteligencia artificial. En total, según la fiscalía, Strahler creó "más de 700 imágenes, tanto de víctimas reales como de personajes animados, y las publicó en un sitio web dedicado al abuso sexual infantil".
El abogado de Strahler no respondió de inmediato a la solicitud de comentarios.
Incidente 1449: Un tribunal de Delaware determinó que Krafton siguió la mayoría de las recomendaciones de ChatGPT en la campaña que despidió injustamente a ejecutivos de Unknown Worlds y tomó el control operativo.
“Un tribunal estadounidense falla en contra de la empresa de videojuegos surcoreana y su plan de adquisición basado en inteligencia artificial.”
WILMINGTON, Delaware, 16 de marzo (Reuters) - Un juez de Delaware ordenó el lunes a la desarrolladora de videojuegos surcoreana Krafton Inc. (259960.KS), abre en una nueva pestaña restituir al director de uno de sus estudios de videojuegos, dictaminando que había sido destituido indebidamente como parte de un plan de adquisición ideado por ChatGPT.
El director ejecutivo de Krafton, Changhan Kim, siguió en gran medida el consejo de la herramienta de IA ChatGPT durante una disputa de 250 millones de dólares con los directivos de Unknown Worlds Entertainment, la empresa creadora del juego "Subnautica", que Krafton había adquirido, según el fallo de la vicecanciller Lori Will del Tribunal de Equidad de Delaware.
Las empresas y los gobiernos están buscando desesperadamente nuevas formas de utilizar la inteligencia artificial, y se ha culpado a la tecnología de los despidos masivos, los temores a las armas autónomas y las preocupaciones sobre los derechos civiles. Las empresas atrapadas en batallas legales relacionadas con adquisiciones a menudo gastan millones de dólares en equipos de abogados y asesores de las principales firmas de Wall Street. En un comunicado, Krafton afirmó que no estaba de acuerdo con el fallo y que estaba evaluando sus opciones, manteniendo su enfoque en ofrecer el mejor juego posible a los fans. La compañía declaró que estaba trabajando incansablemente para fortalecer la secuela de "Subnautica" y prepararla para su lanzamiento en acceso anticipado.
Los abogados de la directiva del estudio no respondieron de inmediato a la solicitud de comentarios.
La disputa surge de la adquisición de Unknown Worlds Entertainment por parte de Krafton por 500 millones de dólares por adelantado en 2021. Krafton acordó que el estudio se mantendría independiente y que su directiva —los cofundadores Charlie Cleveland y Max McGuire, y el director ejecutivo Ted Gill— conservaría el control operativo y solo podría ser despedida por justa causa, según el fallo de Will. Si la compañía cumplía ciertos objetivos, Krafton pagaría un pago adicional por resultados de hasta 250 millones de dólares.
Según el fallo, mientras el estudio se preparaba para el lanzamiento de "Subnautica 2" el año pasado, las proyecciones internas indicaban que se activaría dicho pago adicional. El director ejecutivo de Krafton, Kim, temía estar atrapado en un acuerdo ventajoso y, en junio, recurrió a ChatGPT para salir de él.
"Durante el mes siguiente, Krafton siguió la mayoría de las recomendaciones de ChatGPT", escribió Will en su dictamen.
Como sugirió el chatbot, la empresa formó un grupo de trabajo interno para negociar un nuevo acuerdo o adquirir el estudio. También se definieron acciones específicas, incluyendo una estrategia de comunicación centrada en la confianza de los fans, la obtención de los derechos de publicación de "Subnautica 2" y la preparación de "material sistemático de defensa legal".
Al no lograr que la directiva renegociara el pago por resultados, Krafton los destituyó, alegando que habían engañado a la empresa sobre la disminución del tiempo que dedicaban al estudio, una alegación que la jueza rechazó.
Will ordenó que se devolviera el control operativo a Gill, el director ejecutivo del estudio. También extendió el plazo para cumplir con los criterios del pago por resultados.
Incidente 1445: Un empleado de la CDU de Baja Sajonia habría compartido un supuesto deepfake sexualizado de una compañera en un grupo interno de WhatsApp.
“"Nos hubiera gustado adoptar una postura más clara": así explica internamente la CDU el asunto de los deepfakes.”
La CDU de Baja Sajonia se encuentra conmocionada por un escándalo de deepfake. El presidente estatal, Sebastian Lechner, se dirigió a los miembros mediante una carta. Desea "comunicarse de forma proactiva", pero por razones cruciales, esto no es posible.
En relación con el caso de la supuesta creación de un vídeo sexualizado mediante IA dentro del grupo parlamentario de la CDU de Baja Sajonia, el presidente estatal, Sebastian Lechner, se dirigió a los miembros del partido mediante una carta. En la carta interna, a la que WELT ha tenido acceso, Lechner describe la revelación de las acusaciones como "una noticia impactante para todos nosotros", que los ha dejado "sin palabras".
No obstante, el partido "comunicó proactivamente" el asunto y publicó un comunicado. "Nos hubiera gustado adoptar una postura más clara al respecto y proporcionar más información", continuó Lechner, "pero esto no fue posible por razones legales".
Se ha contratado a un bufete de abogados especializado en medios de comunicación y se ha decidido, "para proteger los derechos personales de todos los implicados", abstenerse de emitir más declaraciones por el momento. Porque: El grupo parlamentario, como empleador, tiene el deber de velar por el bienestar de sus empleados, «incluso si se ha producido alguna falta».
Respecto a las medidas que se tomarán, Lechner escribe: «Todo debe investigarse de forma transparente y exhaustiva». Cooperarán plenamente con la justicia. «Seguiremos extrayendo todas las conclusiones necesarias. Para que quede perfectamente claro: en la CDU no se tolera el pensamiento ni la conducta misógina», afirma Lechner. «Obviamente, aún existen deficiencias» en el camino hacia la transformación de la CDU de Baja Sajonia en un «partido moderno e innovador»; el escándalo actual lo ha dejado más que patente.
Ahora quiere «aprovechar la crisis como una oportunidad», declara Lechner, sin dar más detalles. Para ello, será necesaria, en particular, «la experiencia de las numerosas mujeres» del partido.
El empleado en cuestión fue despedido sin previo aviso.
Antecedentes del caso: La tarde del 17 de enero de 2026, varios empleados del grupo parlamentario de la CDU de Baja Sajonia recibieron un mensaje en sus teléfonos móviles. En un chat privado compartido de WhatsApp, un alto cargo del grupo parlamentario publicó un breve vídeo generado por IA que mostraba a otra alta empleada del grupo de forma claramente sexualizada: un deepfake.
Dos meses después, este mensaje desató un escándalo político en el parlamento estatal de Hannover. Según información obtenida por WELT, el líder del grupo parlamentario, Sebastian Lechner, y la directora parlamentaria, Carina Hermann, se enteraron del vídeo recientemente y acortaron sus vacaciones de Semana Santa. Tras varias reuniones de crisis en Hannover, el empleado que aparentemente creó el vídeo fue suspendido ese mismo día y posteriormente despedido sin previo aviso. No respondió a las reiteradas consultas de WELT.
Un portavoz de la fiscalía de Hannover confirmó el incidente y la investigación a la agencia de noticias alemana dpa. Sin embargo, aún no se ha iniciado ninguna investigación formal.
Según se informa, la fiscalía ha revisado el breve vídeo. «Aparece una mujer bailando en bikini. Esta mujer parece ser miembro del personal del grupo parlamentario de la CDU», declaró un portavoz. El vídeo es «claramente un montaje generado por IA». Se sospecha que se insertó digitalmente una imagen real de la mujer en el vídeo. Existe software que permite hacerlo.
Actualmente no se está llevando a cabo ninguna investigación contra el presunto creador del vídeo, un empleado del grupo parlamentario de la CDU, añadió el portavoz. No hay pruebas de difamación en el vídeo en sí; sin embargo, existe la sospecha de una violación de la ley de derechos de autor si se alteró la foto de la mujer. Se trata de un delito de acusación particular, explicó el fiscal. La fiscalía solo puede actuar si se presenta una denuncia formal.
Hasta el momento, no se ha presentado ninguna denuncia formal, indicó el portavoz. El plazo de tres meses para presentar dicha denuncia aún no ha expirado; este plazo comienza a contar desde el momento en que la parte afectada tiene conocimiento del contenido. Según se indicó, si para entonces se presenta una denuncia formal, la fiscalía revisará nuevamente el caso.
Enviar URL Rapidamente
Acerca de la Base de Datos
La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.
Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...
La Base de Datos en la Prensa
Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.
Rankings de Reportadores de Incidentes
Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.
El Informe de Incidentes de IA

Create an account to subscribe to new incident notifications and other updates.
Incidentes Aleatorios
El Colaborativo de IA Responsable
La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Patrocinador fundador de la organización
Patrocinador fundador de la base de datos





