Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1354: Des images de nus truquées de lycéennes et de femmes, prétendument modifiées par intelligence artificielle, auraient été créées et diffusées à Pensacola, en Floride.

Traduit par IA
Description:
Traduit par IA
À Pensacola, en Floride, un jeune homme de 18 ans aurait utilisé une application en ligne de retouche d'images par intelligence artificielle pour « dénuder » numériquement des photos de dizaines de jeunes filles et de jeunes femmes sans leur consentement, créant ainsi de fausses images de nudité d'un réalisme saisissant. Certaines photos originales auraient été prises alors que les victimes étaient mineures. Les images auraient été découvertes sur le téléphone du jeune homme, puis copiées et partagées avec d'autres élèves par un tiers, ce qui a conduit à une enquête policière et à son arrestation.
Editor Notes: Timeline note: Reporting indicates that the AI-altered images were discovered and brought to law-enforcement attention in October 2024, though the precise date of creation and initial dissemination is unclear. A related criminal filing for dissemination of the images was reported on November 14, 2024. The incident ID was created on January 31, 2026.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown image generator developers et Unknown deepfake technology developers developed an AI system deployed by Unnamed 18-year-old male student from Pensacola, which harmed Unnamed students from Pensacola , students , minors et Epistemic integrity.
Systèmes d'IA présumés impliqués: Unknown nudify app , Unknown image generator technology et Unknown deepfake technology

Statistiques d'incidents

ID
1354
Nombre de rapports
2
Date de l'incident
2024-10-10
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
Un étudiant a utilisé l'intelligence artificielle pour « déshabiller » des dizaines de lycéennes. Les parents demandent son arrestation.
Une jeune fille est arrêtée pour avoir envoyé de fausses photos de femmes nues. Les parents sont indignés.
Loading...
Un étudiant a utilisé l'intelligence artificielle pour « déshabiller » des dizaines de lycéennes. Les parents demandent son arrestation.

Un étudiant a utilisé l'intelligence artificielle pour « déshabiller » des dizaines de lycéennes. Les parents demandent son arrestation.

pnj.com

Loading...
Une jeune fille est arrêtée pour avoir envoyé de fausses photos de femmes nues. Les parents sont indignés.

Une jeune fille est arrêtée pour avoir envoyé de fausses photos de femmes nues. Les parents sont indignés.

pnj.com

Loading...
Un étudiant a utilisé l'intelligence artificielle pour « déshabiller » des dizaines de lycéennes. Les parents demandent son arrestation.
pnj.com · 2024
Traduit par IA

Il y a quelques semaines, Bryre Thomson, 18 ans, commençait sa première année d'université lorsqu'elle a reçu des SMS de ses amis de Pensacola contenant de fausses photos de filles et de jeunes filles nues. Des photos de femmes de plusieurs…

Loading...
Une jeune fille est arrêtée pour avoir envoyé de fausses photos de femmes nues. Les parents sont indignés.
pnj.com · 2024
Traduit par IA

La petite amie d'un jeune homme de Pensacola qui aurait utilisé l'intelligence artificielle pour « dénuder » numériquement les photos de plus d'une douzaine de filles et de femmes a été arrêtée pour diffusion de ces images sans consentement…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Jul 2021 · 3 rapports
Loading...
Tesla Driver on Autopilot Ran a Red Light, Crashing into a Car and Killing Two People in Los Angeles

Tesla Driver on Autopilot Ran a Red Light, Crashing into a Car and Killing Two People in Los Angeles

Dec 2019 · 4 rapports
Loading...
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Jul 2021 · 3 rapports
Loading...
Tesla Driver on Autopilot Ran a Red Light, Crashing into a Car and Killing Two People in Los Angeles

Tesla Driver on Autopilot Ran a Red Light, Crashing into a Car and Killing Two People in Los Angeles

Dec 2019 · 4 rapports
Loading...
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d690bcc