Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1439: Un exprofesor de la escuela Isidore Newman de Nueva Orleans presuntamente utilizó inteligencia artificial para crear imágenes falsas de desnudos a partir de fotos de redes sociales de chicas, incluidas alumnas.

Traducido por IA
Respondido
Descripción:
Traducido por IA
Las autoridades de Luisiana alegaron que Benoit Cransac, exprofesor de la escuela Isidore Newman, utilizó una plataforma de inteligencia artificial en línea para alterar fotos de chicas en redes sociales y generar imágenes falsas de desnudos, incluyendo collages. Según informes locales, fue arrestado nuevamente por 60 cargos de manipulación digital ilegal (deepfake), y los investigadores creían que algunas de las imágenes mostraban a chicas de la zona de Nueva Orleans. Posteriormente, la información hizo referencia a adolescentes y estudiantes.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown image generator developers y Unknown deepfake technology developers developed an AI system deployed by Benoit Cransac, which harmed minors , Isidore Newman School community , Girls from New Orleans , Girls y Epistemic integrity.
Sistemas de IA presuntamente implicados: Unknown image generator technology y Unknown deepfake technology

Estadísticas de incidentes

ID
1439
Cantidad de informes
3
Fecha del Incidente
2026-01-08
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Profesor de la escuela Newman arrestado bajo sospecha de posesión de material de abuso sexual infantil. - Respuesta
+1
Una exmaestra de Nueva Orleans es acusada de usar inteligencia artificial para crear imágenes falsas de desnudos a partir de fotos de redes sociales.
Loading...
Profesor de la escuela Newman arrestado bajo sospecha de posesión de material de abuso sexual infantil.

Profesor de la escuela Newman arrestado bajo sospecha de posesión de material de abuso sexual infantil.

fox8live.com

Loading...
Una exmaestra de Nueva Orleans es acusada de usar inteligencia artificial para crear imágenes falsas de desnudos a partir de fotos de redes sociales.

Una exmaestra de Nueva Orleans es acusada de usar inteligencia artificial para crear imágenes falsas de desnudos a partir de fotos de redes sociales.

fox8live.com

Loading...
Una maestra de Nueva Orleans, que ya había sido arrestada en una investigación por abuso sexual infantil, ahora enfrenta nuevos cargos relacionados con la manipulación de imágenes (deepfake).

Una maestra de Nueva Orleans, que ya había sido arrestada en una investigación por abuso sexual infantil, ahora enfrenta nuevos cargos relacionados con la manipulación de imágenes (deepfake).

wdsu.com

Loading...
Profesor de la escuela Newman arrestado bajo sospecha de posesión de material de abuso sexual infantil.
fox8live.com · 2026
Traducido por IA
Respuesta post-incidente de FOX 8 Staff

NUEVA ORLEANS (WVUE) - La Fiscalía General de Luisiana confirmó el jueves el arresto de Benoit Cransac, de 49 años, por 22 cargos de posesión de material de abuso sexual infantil.

Cransac fue identificado como maestro y entrenador en la Esc…

Loading...
Una exmaestra de Nueva Orleans es acusada de usar inteligencia artificial para crear imágenes falsas de desnudos a partir de fotos de redes sociales.
fox8live.com · 2026
Traducido por IA

NUEVA ORLEANS (WVUE) - Un exprofesor de Nueva Orleans utilizó inteligencia artificial para crear imágenes falsas de mujeres desnudas tras obtener sus fotos de las redes sociales, según los investigadores.

Benoit Cransac, de 49 años, fue arr…

Loading...
Una maestra de Nueva Orleans, que ya había sido arrestada en una investigación por abuso sexual infantil, ahora enfrenta nuevos cargos relacionados con la manipulación de imágenes (deepfake).
wdsu.com · 2026
Traducido por IA

Un exprofesor de la escuela Isidore Newman, arrestado en repetidas ocasiones en relación con una investigación vinculada a material de abuso sexual infantil, enfrenta cargos adicionales.

Según la oficina de la fiscal general de Luisiana, Li…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes
Loading...
Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Sep 2015 · 12 informes
Loading...
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes
Loading...
Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Sep 2015 · 12 informes
Loading...
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd