Registro de citas para el Incidente 687

Description: Porn sites are alleged to have used AI-generated images of Breeze Liu without her consent, leading to severe emotional distress. Liu discovered a video of herself on Pornhub, which was then deepfaked and spread across over 800 links. Despite efforts to remove the content, many sites refused to comply, perpetuating the violation and exploitation of her image.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por Unknown deepfake creators e implementado por Pornhub y Various porn sites, perjudicó a Breeze Liu.

Estadísticas de incidentes

ID
687
Cantidad de informes
1
Fecha del Incidente
2024-04-08
Editores
Daniel Atherton
Applied Taxonomies

Informes del Incidente

translated-es-Deepfake Porn Sites Use Victim's Image Without Consent
nytimes.com · 2024

translated-es-This transcript was created using speech recognition software. While it has been reviewed by human transcribers, it may contain errors. Please review the episode audio before quoting from this transcript and email transcripts@…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Northpointe Risk Models

Machine Bias - ProPublica

· 15 informes
Predictive Policing Biases of PredPol

Policing the Future

· 17 informes