Incident 1354: Des images de nus truquées de lycéennes et de femmes, prétendument modifiées par intelligence artificielle, auraient été créées et diffusées à Pensacola, en Floride.
Description: À Pensacola, en Floride, un jeune homme de 18 ans aurait utilisé une application en ligne de retouche d'images par intelligence artificielle pour « dénuder » numériquement des photos de dizaines de jeunes filles et de jeunes femmes sans leur consentement, créant ainsi de fausses images de nudité d'un réalisme saisissant. Certaines photos originales auraient été prises alors que les victimes étaient mineures. Les images auraient été découvertes sur le téléphone du jeune homme, puis copiées et partagées avec d'autres élèves par un tiers, ce qui a conduit à une enquête policière et à son arrestation.
Editor Notes: Timeline note: Reporting indicates that the AI-altered images were discovered and brought to law-enforcement attention in October 2024, though the precise date of creation and initial dissemination is unclear. A related criminal filing for dissemination of the images was reported on November 14, 2024. The incident ID was created on January 31, 2026.
Entités
Voir toutes les entitésAlleged: Unknown image generator developers et Unknown deepfake technology developers developed an AI system deployed by Unnamed 18-year-old male student from Pensacola, which harmed Unnamed students from Pensacola , students , minors et Epistemic integrity.
Systèmes d'IA présumés impliqués: Unknown nudify app , Unknown image generator technology et Unknown deepfake technology
Statistiques d'incidents
ID
1354
Nombre de rapports
2
Date de l'incident
2024-10-10
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Il y a quelques semaines, Bryre Thomson, 18 ans, commençait sa première année d'université lorsqu'elle a reçu des SMS de ses amis de Pensacola contenant de fausses photos de filles et de jeunes filles nues. Des photos de femmes de plusieurs…
Loading...
La petite amie d'un jeune homme de Pensacola qui aurait utilisé l'intelligence artificielle pour « dénuder » numériquement les photos de plus d'une douzaine de filles et de femmes a été arrêtée pour diffusion de ces images sans consentement…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

