Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
Más de una docena de arrestos injustificados debido a la dependencia policial de la tecnología de reconocimiento facial.

Incidente 1476: La policía de Maryland presuntamente se basó en una pista de reconocimiento facial para arrestar y detener injustamente a Kimberlee Williams.

Traducido por IA
“Más de una docena de arrestos injustificados debido a la dependencia policial de la tecnología de reconocimiento facial.”Último informe
aclu.org2026-05-03

Una clienta de la ACLU pasó seis meses en la cárcel porque la policía se basó en la tecnología de reconocimiento facial para identificarla erróneamente como sospechosa. Es la decimocuarta persona conocida que ha sido arrestada injustamente debido a las fallas de esta tecnología.

Cuando la policía arrestó a Kimberlee Williams, una abuela residente de Oklahoma, por una orden de arresto de Maryland, se quedó atónita. Nunca había estado en Maryland.

La Sra. Williams descubrió más tarde que la policía de Maryland se había basado en un resultado erróneo de la tecnología de reconocimiento facial que la había señalado erróneamente como sospechosa. Es la decimocuarta persona en Estados Unidos que se suma a una creciente lista de personas arrestadas injustamente porque la policía permitió que la tecnología de reconocimiento facial defectuosa contaminara sus investigaciones.

El uso de la tecnología de reconocimiento facial por parte de la policía es peligroso, y siguen apareciendo historias de personas arrestadas injustamente debido a que la policía se basó en resultados erróneos de este sistema. Hoy, la ACLU y la ACLU de Maryland enviaron cartas a tres departamentos de policía de Maryland en nombre de la Sra. Williams, quien fue arrestada injustamente y encarcelada durante seis meses debido a que la policía de Maryland se basó en un resultado falso de reconocimiento facial y ocultó al tribunal el uso de esta tecnología poco fiable al solicitar la orden de arresto.


Una mujer arrestada por un delito que no cometió

El 23 de junio de 2021, la Sra. Williams acompañaba a una de sus hijas en una entrega de DoorDash a una base militar local en Lawton, Oklahoma. Cuando el personal de seguridad de la base realizó una verificación de identificación rutinaria en el puesto de control de entrada, descubrieron órdenes de arresto pendientes de Maryland contra la Sra. Williams y la detuvieron.

Estas órdenes de arresto solicitaban la detención de la Sra. Williams por una serie de retiros fraudulentos de efectivo en ventanilla en Maryland, ocurridos en diciembre de 2019 y enero de 2020. Un individuo desconocido había ingresado a sucursales de los bancos SunTrust y Truist en tres condados diferentes, suplantando la identidad de los titulares de las cuentas y retirando fraudulentamente miles de dólares de dichas cuentas.

Sin embargo, la Sra. Williams no se encontraba en Maryland durante ese período. Residía en Oklahoma, donde vivía con dos de sus hijas y sus nietos. Mientras alguien defraudaba a los bancos en Maryland, la Sra. Williams estaba en Oklahoma con su familia celebrando la Navidad y el cumpleaños de su hija.

En la sede del banco, un investigador de delitos financieros obtuvo imágenes del sospechoso a partir de las grabaciones de las cámaras de seguridad y envió una imagen a una lista de correo nacional de policías e investigadores privados llamada Crimedex. Alguien en la lista de correo procesó la imagen con tecnología de reconocimiento facial y envió el nombre y la foto de la Sra. Williams como una supuesta coincidencia con el sospechoso.

En el primer condado, el investigador bancario informó a la policía del condado de Montgomery que la Sra. Williams había sido identificada "mediante software de reconocimiento facial", pero no proporcionó más información, como quién realizó la búsqueda de reconocimiento facial ni cómo se llevó a cabo. A la policía de los otros dos condados, el investigador bancario proporcionó aún menos información, escribiendo que el sospechoso había sido "reconocido" como la Sra. Williams, "una sospechosa en" la investigación anterior del condado de Montgomery.

Los detectives no intentaron determinar si la Sra. Williams, residente de Oklahoma, pudo haber estado cerca de Maryland durante el período en cuestión. Sus pruebas de coartada, incluidas publicaciones en redes sociales geolocalizadas en Oklahoma, habrían demostrado que no podía ser la persona correcta. Los detectives también ignoraron otras pistas evidentes: uno de los incidentes involucraba un cheque fraudulento a nombre de una persona no asociada con las cuentas bancarias. Sin embargo, no se investigó ese nombre. En cambio, la policía se basó únicamente en la pista del reconocimiento facial, además de sus propias comparaciones visuales de las fotos del sospechoso y la Sra. Williams. Les pareció que ambos se parecían.

Tras su arresto, la Sra. Williams pasó un total de seis meses en prisión, primero en Oklahoma a la espera de ser extraditada, y luego en los condados de Montgomery y Prince George, en Maryland. Cuando finalmente se retiraron todos los cargos, la Sra. Williams fue puesta en libertad sin contemplaciones a mediados de diciembre y tuvo que buscarse la vida para regresar a casa, al otro lado del país. No tenía teléfono ni dinero. Gracias a la generosidad de desconocidos, logró conseguir un teléfono prestado para contactar con su familia y alojarse en un hotel cercano antes de poder volver a casa.

Esta terrible experiencia trastornó su vida y la de su familia, y cinco años después aún intenta recuperarse. Perdió su trabajo a causa del arresto. También le preocupa volver a llamar la atención de la policía, sin saberlo, por un delito con el que no tuvo nada que ver, lo que podría provocar otra situación similar.


Aumento de arrestos injustos debido al uso de la tecnología de reconocimiento facial

Lo que le sucedió a la Sra. Williams es indignante y, lamentablemente, una consecuencia previsible del uso de la tecnología de reconocimiento facial por parte de la policía. Se sabe públicamente que al menos otras trece personas fueron arrestadas injustamente por la policía estadounidense debido a la confianza depositada en resultados erróneos de reconocimiento facial:

  • Nijeer Parks, arrestado por la policía en Woodbridge, Nueva Jersey (febrero de 2019)
  • Michael Oliver, arrestado por la policía en Detroit, Michigan (julio de 2019)
  • Robert Williams, arrestado por la policía en Detroit, Michigan (enero de 2020)
  • Christopher Gatlin, arrestado por la policía de San Luis, Misuri (agosto de 2021)
  • Alonzo Sawyer, arrestado por la policía de tránsito de Maryland (marzo de 2022)
  • Randal Quran Reid](https://www.nytimes.com/2023/03/31/technology/facial-recognition-false-arrests.html), arrestado por la policía de Georgia con una orden emitida en la parroquia de Jefferson, Luisiana (noviembre de 2022)
  • Porcha Woodruff, arrestada por la policía en Detroit, Michigan (febrero de 2023)
  • Jason Killinger, arrestado por la policía en Reno, Nevada (septiembre de 2023)
  • [Robert Dillion, arrestado con una orden judicial obtenida por la policía en Jacksonville Beach, Florida (agosto de 2024)
  • Javier Lorenzano-Nunez, arrestado por la policía en Phoenix, Arizona (octubre de 2024)
  • Trevis Williams, arrestado por la policía en la ciudad de Nueva York (abril de 2024) 2025)
  • Angela Lipps, arrestada por alguaciles federales en Tennessee con una orden de arresto obtenida por la policía de Fargo, Dakota del Norte (julio de 2025)
  • Beau Burgess, arrestado por la policía de Orlando, Florida (agosto de 2025)

Cuando la [ACLU demandó a Detroit] En 2021, cuando la policía presentó una demanda en nombre de Robert Williams en 2021, los defensores del uso policial de la tecnología de reconocimiento facial calificaron su arresto injustificado como un error desafortunado pero aislado que no debería minar la confianza en la tecnología. Sin embargo, los arrestos injustificados han continuado. Ahora es imposible ignorar los peligros de la tecnología de reconocimiento facial en la labor policial. De hecho, la policía sigue permitiendo que se repitan los mismos fallos predecibles.

La tecnología de reconocimiento facial a menudo produce coincidencias falsas. Parte del peligro de estos sistemas radica en que, cuando fallan, personas inocentes con parecido a un sospechoso suelen ser señaladas. Precisamente para eso está diseñado el reconocimiento facial: para encontrar rostros similares en una base de datos, la mayoría o la totalidad de los cuales no coinciden realmente. Cuando la tecnología de reconocimiento facial genera coincidencias falsas con personas que se parecen a otras personas inocentes, puede viciar la investigación al engañar a testigos y policías, haciéndoles creer erróneamente que han encontrado al sospechoso.

En varios casos, personas han sido arrestadas injustamente después de que la policía pasara directamente de los resultados del reconocimiento facial a las ruedas de reconocimiento fotográfico presentadas a los testigos. Al ver fotos que contienen la imagen de una persona identificada por la tecnología de reconocimiento facial, rodeada de fotos de personas que se parecen menos al sospechoso, los testigos, como era de esperar, creen haber encontrado al culpable. Esta manipulación en las identificaciones de las ruedas de reconocimiento ha llevado al arresto injusto de al menos siete personas.

En otros casos, incluido el de la Sra. Williams, la única confirmación que obtuvo la policía fue una comparación visual de la foto del sospechoso con el resultado del reconocimiento facial realizada por un agente, quien, de igual manera, se vio influenciado por la tecnología y creyó haber encontrado una coincidencia.

Una y otra vez, la policía ha fallado en llevar a cabo investigaciones fiables e ignorado razones obvias para dudar de una pista obtenida mediante reconocimiento facial. Muchas de las personas arrestadas injustamente presentaban diferencias visibles con el sospechoso de la foto: Michael Oliver tenía los brazos completamente tatuados, Porcha Woodruff estaba embarazada de ocho meses y Trevis Williams era 20 centímetros más alto y pesaba 32 kilos más. En el caso que condujo al arresto de Nijeer Parks, la policía no esperó los resultados del análisis de ADN y huellas dactilares que habrían señalado a otra persona. Y en el caso de quienes fueron arrestados por delitos lejos de su lugar de residencia —entre ellos Kimberlee Williams, Randal Quran Reid, Robert Dillon y Angela Lipps—, la policía aparentemente no investigó si siquiera se encontraban en la ciudad o el estado correctos en el momento del crimen.


Sin protecciones, la tecnología de reconocimiento facial seguirá viciando las investigaciones.

A pesar de las políticas de los departamentos de policía y las advertencias oficiales que indican que los resultados de la tecnología de reconocimiento facial no son motivo suficiente para arrestar a alguien, la policía sigue permitiendo que esta tecnología perjudique sus investigaciones. Los problemas no terminan ahí. Numerosos estudios han demostrado que la tecnología de reconocimiento facial produce mayores tasas de falsos positivos en personas de color, mujeres, jóvenes y ancianos. Como era de esperar, la mayoría de los arrestos injustos conocidos derivados de esta tecnología han sido de personas negras. Pero a medida que salen a la luz más historias, incluyendo la de la Sra. Williams y otras personas blancas que fueron víctimas de arrestos injustos, vemos que nadie está a salvo de que esta tecnología trastorne su vida.

Estos graves peligros exigen soluciones serias. Más de 20 ciudades y otras jurisdicciones en todo el país han prohibido a la policía el uso de la tecnología de reconocimiento facial. En Detroit, gracias a un acuerdo histórico alcanzado en el caso de la detención injustificada de Robert Williams, el departamento de policía ya no permite que los agentes soliciten órdenes de arresto basándose únicamente en una rueda de reconocimiento fotográfico combinada con información obtenida mediante reconocimiento facial. Indiana ha promulgado una protección similar en su legislación estatal.

La Sra. Williams jamás recuperará los seis meses que pasó en prisión por un delito con el que claramente no tuvo ninguna relación. En nuestras cartas enviadas hoy a la policía de Maryland, solicitamos que se rindan cuentas y que se realicen cambios sustanciales en las políticas para minimizar la posibilidad de que esto vuelva a ocurrirle a alguien. Un solo arresto injustificado mediante esta peligrosa tecnología es indignante. Más de una docena, y la cifra sigue aumentando, es una auténtica farsa que los legisladores y la policía deben erradicar de inmediato.

Leer Más
Loading...
Una IA descontrolada provocó un grave incidente de seguridad en Meta.

Incidente 1471: Según informes, un agente interno de IA de Meta dio consejos que supuestamente expusieron datos confidenciales a empleados no autorizados.

Traducido por IA
“Una IA descontrolada provocó un grave incidente de seguridad en Meta.”
theverge.com2026-05-02

Durante casi dos horas la semana pasada, empleados de Meta tuvieron acceso no autorizado a datos de la empresa y de los usuarios gracias a un agente de IA que proporcionó asesoramiento técnico erróneo a un empleado, como informó previamente The Information. La portavoz de Meta, Tracy Clayton, declaró a The Verge que "no se manipuló indebidamente ningún dato de usuario" durante el incidente.

Un ingeniero de Meta estaba utilizando un agente de IA interno, que Clayton describió como "similar a OpenClaw dentro de un entorno de desarrollo seguro", para analizar una pregunta técnica que otro empleado había publicado en un foro interno de la empresa. Sin embargo, el agente también respondió públicamente a la pregunta tras analizarla, sin obtener aprobación previa. La respuesta solo estaba destinada a ser mostrada al empleado que la solicitó, no publicada.

Un empleado actuó siguiendo el consejo de la IA, que proporcionó información inexacta y provocó un incidente de seguridad de nivel SEV1, el segundo nivel de gravedad más alto que utiliza Meta. El incidente permitió temporalmente a los empleados acceder a datos confidenciales que no estaban autorizados a ver, pero el problema ya se ha resuelto.

Según Clayton, el agente de IA involucrado no realizó ninguna acción técnica por sí mismo, más allá de publicar consejos técnicos inexactos, algo que un humano también podría haber hecho. Sin embargo, un humano podría haber realizado pruebas adicionales y emitido un juicio más completo antes de compartir la información; y no está claro si el empleado que originó la respuesta tenía la intención de publicarla.

"El empleado que interactuaba con el sistema era plenamente consciente de que se estaba comunicando con un bot automatizado. Esto se indicaba en una advertencia en el pie de página y en la propia respuesta del empleado en ese hilo", comentó Clayton a The Verge. El agente no realizó ninguna acción más allá de responder a una pregunta. Si el ingeniero que actuó en consecuencia hubiera tenido más conocimiento o hubiera realizado otras comprobaciones, esto se habría evitado.

El mes pasado, un agente de IA de la plataforma de código abierto OpenClaw (https://www.theverge.com/news/872091/openclaw-moltbot-clawdbot-ai-agent-news) actuó de forma descontrolada en Meta cuando una empleada le pidió que revisara sus correos electrónicos, eliminando mensajes sin su autorización. La idea principal de agentes como OpenClaw es que puedan actuar por sí solos, pero, como cualquier otro modelo de IA, no siempre interpretan correctamente las indicaciones e instrucciones ni dan respuestas precisas, un hecho que los empleados de Meta han comprobado en dos ocasiones.

Leer Más
Loading...
La policía cibernética de Ahmedabad desmantela una red de fraude de Aadhaar que utilizaba deepfakes; cuatro personas fueron arrestadas.

Incidente 1472: Según informes, una red de fraude de Aadhaar en Ahmedabad utilizó supuestos deepfakes generados por IA para cambiar el número de teléfono móvil vinculado de un empresario.

Traducido por IA
“La policía cibernética de Ahmedabad desmantela una red de fraude de Aadhaar que utilizaba deepfakes; cuatro personas fueron arrestadas.”
english.gujaratsamachar.com2026-05-02

En un importante avance, la Unidad de Delitos Cibernéticos de la División de Delitos de Ahmedabad arrestó a cuatro personas por presuntamente orquestar una sofisticada red de fraude de identidad. Utilizaron tecnología deepfake y accedieron ilegalmente a sistemas biométricos vinculados a Aadhaar para alterar los números de teléfono móvil registrados de las víctimas, abrir cuentas bancarias y solicitar préstamos.

Los arrestos se realizaron a raíz de una denuncia presentada por Amit Patel, un empresario de Ahmedabad, quien alegó que personas desconocidas habían cambiado fraudulentamente el número de teléfono móvil vinculado a su tarjeta Aadhaar y utilizado sus datos de identidad para acceder a DigiLocker, realizar la verificación KYC, abrir cuentas bancarias y solicitar préstamos personales.

Según la denuncia presentada en la Comisaría de Delitos Cibernéticos, el fraude salió a la luz cuando Patel, residente de Thaltej y director de Bonneville Foods Private Limited, intentó acceder a servicios vinculados a Aadhaar para la documentación de su empresa y descubrió que el número de teléfono móvil asociado a su Aadhaar había sido cambiado sin su conocimiento.

Las comprobaciones posteriores revelaron que su perfil de Aadhaar había sido alterado y vinculado a otro número de teléfono móvil y dirección de correo electrónico. La policía informó que el acusado también utilizó las credenciales comprometidas para acceder a DigiLocker, activar servicios bancarios y solicitar préstamos personales a través de plataformas de crédito digital, como RKBansal, True Credits y EarlySalary.

Videos deepfake utilizados para eludir la verificación biométrica

Durante la investigación, la policía cibernética descubrió que el acusado presuntamente había eludido el proceso de autenticación facial de Aadhaar mediante la creación de videos deepfake generados por IA a partir de la fotografía del denunciante.

La policía indicó que el acusado utilizó los videos manipulados para simular parpadeos y movimientos faciales, engañando así al sistema de autenticación facial durante los procedimientos de actualización de Aadhaar.

Los investigadores señalaron que el número de teléfono móvil vinculado al Aadhaar del denunciante fue posteriormente modificado mediante kits de actualización de Aadhaar no autorizados, presuntamente operados a través de operadores de Centros de Servicios Comunes (CSC).

Los cuatro detenidos han sido identificados como:

Kanubhai Bahadursinh Parmar (32), operador de un Centro de Servicios Comunes (CSC) del distrito de Anand.

Ashish Rajendrabhai Waland (27), operador de un CSC con sede en Vadodara.

Mohammad Kaif Iqbalbhai Patel (26), vinculado a un centro CSC en el distrito de Bharuch.

Deep Maheshbhai Gupta (29), operador de máquinas de Ahmedabad, originario de Uttar Pradesh. Los cuatro acusados se encuentran actualmente bajo custodia judicial.

Según la policía,

Kanubhai Parmar presuntamente suministró kits de actualización de Aadhaar a los coacusados a cambio de una comisión.

Ashish Waland presuntamente entregó el kit de Aadhaar utilizado en la actualización fraudulenta de números de teléfono móvil y obtuvo una comisión por cada transacción.

Supuestamente, Mohammad Kaif Patel coordinó el uso del número Aadhaar, el número de teléfono móvil y la fotografía de la víctima, y facilitó la creación del video de autenticación facial mediante deepfake.

Deep Gupta presuntamente ayudó a gestionar y transmitir los datos Aadhaar y la fotografía de la víctima para la operación fraudulenta.

La policía informó que se recuperó el kit de actualización de Aadhaar utilizado para alterar el número de teléfono móvil de la víctima. Los investigadores indicaron que uno de los acusados, Ashish Waland, ya había sido detenido por la policía rural de Vadodara en un caso aparte relacionado con la presunta falsificación de tarjetas Aadhaar.

Modus operandi

Obtención de los datos personales y de Aadhaar de las víctimas por medios no autorizados;

Actualización ilegal del número de teléfono móvil vinculado a Aadhaar mediante kits de actualización;

Uso de vídeos deepfake generados por IA para eludir la autenticación biométrica/facial;

Acceso a DigiLocker y a los sistemas e-KYC vinculados a Aadhaar;

Apertura de cuentas bancarias y solicitud de préstamos digitales a nombre de la víctima.

La policía de delitos cibernéticos de Ahmedabad informó que la investigación continúa para identificar a otros implicados y determinar si la red criminal afectó a más víctimas.

La policía ha imputado a los acusados en virtud de las disposiciones pertinentes de la Ley de Delitos Indios de 2023 y la Ley de Tecnologías de la Información por conspiración criminal, falsificación, robo de identidad, fraude y acceso no autorizado a recursos informáticos.

Leer Más
Loading...
Funcionarios del condado de Jasper advierten sobre los peligros de la IA tras el primer arresto por deepfake.

Incidente 1473: Según informes, un estudiante del condado de Jasper, Texas, publicó en Snapchat una supuesta imagen de una compañera de clase desnuda generada por IA.

Traducido por IA
“Funcionarios del condado de Jasper advierten sobre los peligros de la IA tras el primer arresto por deepfake.”
ktre.com2026-05-02

CONDADO DE JASPER, Texas (KTRE) - Las autoridades del condado de Jasper están alertando sobre la inteligencia artificial tras el arresto de un estudiante de 17 años del Distrito Escolar Independiente de Buna (Buna ISD) en el primer caso de deepfake del condado.

Nathaniel Davis fue arrestado el viernes pasado bajo la ley estatal y enfrenta cargos como adulto. El sheriff del condado de Jasper, Chuck Havard, declaró que Davis admitió haber creado una foto de desnudo generada por IA de una compañera de clase y haberla publicado en Snapchat.

"Es un delito menor, un cargo muy grave", afirmó Havard. "Es obvio que se imaginan lo vergonzoso que sería eso para alguien. Por lo tanto, no se puede hacer".

La publicación fue eliminada a los pocos minutos, pero Havard afirmó que el daño ya estaba hecho.

Havard indicó que este es el primer caso que los agentes del condado de Jasper investigan relacionado con inteligencia artificial.

"Este es el primer caso en el que nos notifican sobre el uso de inteligencia artificial en este tipo de cosas, pero preveo que se convertirá en un gran problema", declaró Havard.

Las falsificaciones profundas mediante IA utilizan el rostro o el cuerpo de una persona real para crear imágenes o videos falsos, a menudo explícitos.

El fiscal de distrito del condado de Smith, Jacob Putman, no está procesando este caso, pero afirmó que el problema se está agravando y que la ley de Texas se ha adaptado a esta tecnología.

"Eso es un delito en Texas", declaró Putman. "La ley de Texas se ha adaptado a la tecnología y si se toma la imagen o semejanza de alguien y se transforma en una imagen de ese tipo, existen consecuencias legales".

Putman afirmó que las consecuencias pueden variar desde prisión o cárcel hasta libertad condicional. En caso de condena, varios factores podrían determinar la pena en casos como este.

"¿Están arrepentidos? ¿Lo eliminaron? ¿Cuánto tiempo estuvo publicado? Todos estos son factores a considerar", dijo Putman.

Havard señaló que estas decisiones reflejan una grave falta de criterio y que probablemente Davis no consideró que fuera un asunto tan grave en cuanto a responsabilidad penal.

"Es un delito muy grave", dijo Havard. "Debemos recordar que hay una víctima en este caso".

El caso está ahora en manos del tribunal.

Havard afirmó que la solución comienza en casa, hablando con los niños sobre los problemas del mal uso de la IA antes de que se convierta en un delito.

Ha comenzado a capacitar a sus agentes sobre los peligros de la IA y espera dirigirse a las escuelas y publicar más contenido al respecto en Facebook.

Leer Más
Loading...
Los deepfakes creados con IA están circulando en nuestras escuelas. ¿Cuál es la forma correcta de abordarlos?

Incidente 1474: Según informes, estudiantes de una escuela de Tasmania crearon supuestas imágenes pornográficas generadas por IA de compañeras de clase.

Traducido por IA
“Los deepfakes creados con IA están circulando en nuestras escuelas. ¿Cuál es la forma correcta de abordarlos?”
abc.net.au2026-05-02

Una escuela de Tasmania ha sido criticada por padres de familia por su respuesta a un incidente de deepfake que afectó a 21 alumnas.

Los padres afirman que la escuela The Friends School les aconsejó no informar a sus hijas de que sus imágenes habían sido identificadas en imágenes pornográficas deepfake. (https://www.abc.net.au/news/2026-04-29/tas-friends-school-criticised-after-deepfake-scandal/106577310)

Decidieron informarles, pero sus hijas se sintieron silenciadas y desamparadas, al desconocer si sus compañeras habían sido informadas o no.

La escuela declaró que actuó siguiendo el consejo de la policía y de expertos, y que las imágenes se crearon en dispositivos personales fuera del horario escolar, lo que significa que no podía abordar por sí sola los problemas de los deepfakes.

¿Qué deben hacer los padres y las escuelas cuando se produce un incidente de deepfake que involucra a estudiantes?

¿Qué es un deepfake?


Un deepfake es una foto, un vídeo o un archivo de audio creado con inteligencia artificial para mostrar a alguien haciendo o diciendo algo que en realidad no hizo ni dijo.

El material puede ser muy realista, especialmente en pantallas pequeñas, y se comparte fácilmente.

La comisionada de seguridad en internet, Julie Inman Grant, afirmó que los deepfakes pueden crearse por diversos motivos, como acosar o humillar a alguien, para obtener gratificación sexual o para cometer abuso sexual infantil.

Las víctimas a menudo desconocen que su imagen se ha utilizado en un deepfake.

Quien crea el deepfake puede usar una imagen de redes sociales de alguien, como una selfie o incluso una foto escolar.

Desafortunadamente, las aplicaciones que crean este tipo de material son fáciles de usar, a menudo a bajo costo o gratuitas.

¿Qué tan grave es este problema entre los estudiantes?

Según la comisionada de seguridad en línea, se trata de una crisis.

En 2024, los datos mostraron un aumento interanual del 550 % en la aparición de deepfakes en línea desde 2019.

Los videos pornográficos representaban el 98 % del material deepfake en línea, y el 99 % de las imágenes correspondían a mujeres y niñas.

Los incidentes con deepfakes estaban causando gran conmoción en escuelas enteras, afirmó la Sra. Inman Grant, y el personal, los padres y los estudiantes a menudo no sabían cómo reaccionar.

Las víctimas se sentían humilladas, enojadas y asustadas.

Los estudiantes que recibían material deepfake —en chats grupales o mensajes privados— a veces también se sentían asustados y confundidos, sin saber si denunciarlo o cómo apoyar a sus amigos.

A menudo también temían ser las próximas víctimas.

¿Cuál es la responsabilidad de la escuela? ¿Y cuál es la mejor práctica?

Puede ser un tema muy difícil de abordar, especialmente cuando el material se crea en dispositivos y entornos privados, pero aun así involucra a estudiantes.

El bienestar de los jóvenes y/o del personal involucrado es una prioridad, según el Comisionado de Seguridad Digital.

Las escuelas se consideran la primera línea de respuesta y deben empoderar a los estudiantes víctimas y permitirles participar en la toma de decisiones.

La reputación de la escuela no debe ser el foco de la respuesta.

Se debe designar a un líder del personal escolar para gestionar el incidente, y la información se compartirá solo con quienes necesiten conocerla.

El incidente debe reportarse a la policía y a la Oficina de Seguridad Digital, y la familia del estudiante afectado debe mantenerse informada sobre las medidas que está tomando la escuela.

La escuela también debe contratar servicios adicionales para apoyar el bienestar de los involucrados.

Asimismo, es importante desarrollar políticas y programas educativos sobre alfabetización digital, relaciones respetuosas y consentimiento.

¿Qué debes hacer si la imagen de tu hijo/a ha sido utilizada en pornografía deepfake?


Si tu hijo/a te cuenta lo sucedido, mantén la calma y elaboren juntos un plan para afrontarlo.

El comisionado de Seguridad en Internet sugiere recopilar pruebas (capturas de pantalla, enlaces, nombres de usuario) sin guardar ni compartir el contenido.

A continuación, ayúdale a denunciar el incidente al colegio, a la policía, a la Agencia de Seguridad en Internet (https://www.esafety.gov.au/) y a las plataformas en línea implicadas.

Ten en cuenta que tu hijo/a puede sentir vergüenza, humillación, culpa, miedo a no ser creído/a, aislamiento y desconfianza. Busca apoyo para él/ella si lo necesita.

No existe una única manera de abordar la situación con tu hijo/a si descubres antes que él/ella que su imagen ha sido identificada en material deepfake.

El Servicio de Apoyo a Víctimas de Agresión Sexual (SASS, por sus siglas en inglés) indica que puede haber varias razones por las que los padres no quieran contarle a su hijo/a —como la edad o problemas de salud mental—, pero recomienda la transparencia siempre que sea posible y sugiere que los padres pueden acudir a servicios como el SASS para obtener asesoramiento.

Si su hijo/a le cuenta que recibió un deepfake, felicítelo/a por contárselo, por no compartirlo y recalque que hablar fue lo correcto.

Si su hijo/a ha creado o compartido un deepfake, explíquele las graves consecuencias legales y emocionales y fomente la responsabilidad asegurándose de que elimine y denuncie el contenido, y que se disculpe por su participación.

El Servicio de Apoyo a Víctimas de Agresión Sexual recomienda su programa de intervención temprana PAST (Prevención, Evaluación, Apoyo y Tratamiento) para padres preocupados porque su hijo/a pueda haber participado en la creación o difusión de imágenes sexualmente explícitas, incluidos deepfakes.

¿Es ilegal?


Sí.

En 2024, Australia introdujo nuevas leyes que prohíben la difusión de pornografía deepfake para adultos sin consentimiento.

La pena máxima de prisión es de seis años. Algunos jóvenes podrían crear y compartir deepfakes como broma o experimento sin darse cuenta de que puede constituir un delito grave.

En abril de este año, el primer australiano procesado bajo las leyes de la Commonwealth se declaró culpable.

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    789
  • 🥈

    Anonymous

    157
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    895
  • 🥈

    Anonymous

    243
  • 🥉

    Khoa Lam

    230
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    3027
  • 🥈

    Anonymous

    934
  • 🥉

    Khoa Lam

    417
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2026 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 537d5f5