Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 1004: San Francisco City Attorney Sues Operators of AI Deepfake Pornography Websites for Violations of State and Federal Law

Descripción: In August 2024, the San Francisco City Attorney’s Office filed a first-of-its-kind lawsuit against 16 websites accused of using generative AI to create and distribute nonconsensual pornographic deepfakes, including images of minors. The sites, which had over 200 million visits in six months, invited users to upload real images to generate explicit fakes. By March 2025, 11 of the targeted websites had shut down following legal pressure.
Editor Notes: Timeline notes: The San Francisco City Attorney's office announced its actions against the 16 operators of these sites on August 15, 2024 (the date for this incident ID). By March 2025, reporting on these actions stated that 11 of the sites had been taken down.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developers developed an AI system deployed by Operators of 16 deepfake pornography websites, which harmed Women depicted in deepfake pornography y Minors depicted in deepfake pornography.
Sistemas de IA presuntamente implicados: Unknown deepfake apps y Unknown generative AI tools

Estadísticas de incidentes

ID
1004
Cantidad de informes
2
Fecha del Incidente
2024-08-15
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
El Fiscal de la Ciudad demanda a los sitios web más visitados que crean pornografía deepfake no consensuada
La Fiscalía de la Ciudad de San Francisco desmantela sitios web que difunden desnudos deepfake
El Fiscal de la Ciudad demanda a los sitios web más visitados que crean pornografía deepfake no consensuada

El Fiscal de la Ciudad demanda a los sitios web más visitados que crean pornografía deepfake no consensuada

sfcityattorney.org

La Fiscalía de la Ciudad de San Francisco desmantela sitios web que difunden desnudos deepfake

La Fiscalía de la Ciudad de San Francisco desmantela sitios web que difunden desnudos deepfake

nbcbayarea.com

El Fiscal de la Ciudad demanda a los sitios web más visitados que crean pornografía deepfake no consensuada
sfcityattorney.org · 2024
Traducido por IA
Las imágenes explícitas no consensuadas de adultos y menores reales generadas por IA causan daños inconmensurables y violan las leyes estatales y federales

SAN FRANCISCO (15 de agosto de 2024) --- El fiscal de la ciudad de San Francisco, Da…

La Fiscalía de la Ciudad de San Francisco desmantela sitios web que difunden desnudos deepfake
nbcbayarea.com · 2025
Traducido por IA

La Fiscalía Municipal de San Francisco está tomando medidas contra sitios web acusados de crear y difundir desnudos deepfake, retirando los sitios de internet y enviando un mensaje claro.

La Fiscal Adjunta Principal de la Ciudad, Yvonne Mer…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 informes
Waze Allegedly Clogged Streets and Directed Drivers to Make Unsafe Traffic Decisions

Sherman Oaks residents blame Waze navigation app for clogging streets

Apr 2015 · 3 informes
Picture of Woman on Side of Bus Shamed for Jaywalking

Chinese AI caught out by face in bus ad

Nov 2018 · 24 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 informes
Waze Allegedly Clogged Streets and Directed Drivers to Make Unsafe Traffic Decisions

Sherman Oaks residents blame Waze navigation app for clogging streets

Apr 2015 · 3 informes
Picture of Woman on Side of Bus Shamed for Jaywalking

Chinese AI caught out by face in bus ad

Nov 2018 · 24 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5