Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 1004: San Francisco City Attorney Sues Operators of AI Deepfake Pornography Websites for Violations of State and Federal Law

Description: In August 2024, the San Francisco City Attorney’s Office filed a first-of-its-kind lawsuit against 16 websites accused of using generative AI to create and distribute nonconsensual pornographic deepfakes, including images of minors. The sites, which had over 200 million visits in six months, invited users to upload real images to generate explicit fakes. By March 2025, 11 of the targeted websites had shut down following legal pressure.
Editor Notes: Timeline notes: The San Francisco City Attorney's office announced its actions against the 16 operators of these sites on August 15, 2024 (the date for this incident ID). By March 2025, reporting on these actions stated that 11 of the sites had been taken down.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown deepfake technology developers developed an AI system deployed by Operators of 16 deepfake pornography websites, which harmed Women depicted in deepfake pornography et Minors depicted in deepfake pornography.
Systèmes d'IA présumés impliqués: Unknown deepfake apps et Unknown generative AI tools

Statistiques d'incidents

ID
1004
Nombre de rapports
2
Date de l'incident
2024-08-15
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
Le procureur de la ville poursuit les sites Web les plus visités qui créent de la pornographie deepfake non consensuelle
Le bureau du procureur de la ville de San Francisco ferme des sites Web diffusant des photos de nus deepfake
Le procureur de la ville poursuit les sites Web les plus visités qui créent de la pornographie deepfake non consensuelle

Le procureur de la ville poursuit les sites Web les plus visités qui créent de la pornographie deepfake non consensuelle

sfcityattorney.org

Le bureau du procureur de la ville de San Francisco ferme des sites Web diffusant des photos de nus deepfake

Le bureau du procureur de la ville de San Francisco ferme des sites Web diffusant des photos de nus deepfake

nbcbayarea.com

Le procureur de la ville poursuit les sites Web les plus visités qui créent de la pornographie deepfake non consensuelle
sfcityattorney.org · 2024
Traduit par IA
Les images explicites non consensuelles de vrais adultes et mineurs générées par l'IA causent des dommages incommensurables et violent les lois fédérales et étatiques

SAN FRANCISCO (15 août 2024) --- Le procureur de la ville de San Francisc…

Le bureau du procureur de la ville de San Francisco ferme des sites Web diffusant des photos de nus deepfake
nbcbayarea.com · 2025
Traduit par IA

Le bureau du procureur de la ville de San Francisco cible les sites web accusés de créer et de diffuser des photos de nus deepfakes, les mettant hors ligne et envoyant un message clair.

Yvonne Meré, procureure adjointe en chef de la ville, …

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 rapports
Waze Allegedly Clogged Streets and Directed Drivers to Make Unsafe Traffic Decisions

Sherman Oaks residents blame Waze navigation app for clogging streets

Apr 2015 · 3 rapports
Picture of Woman on Side of Bus Shamed for Jaywalking

Chinese AI caught out by face in bus ad

Nov 2018 · 24 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 rapports
Waze Allegedly Clogged Streets and Directed Drivers to Make Unsafe Traffic Decisions

Sherman Oaks residents blame Waze navigation app for clogging streets

Apr 2015 · 3 rapports
Picture of Woman on Side of Bus Shamed for Jaywalking

Chinese AI caught out by face in bus ad

Nov 2018 · 24 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5