Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4085

Incidentes Asociados

Incidente 7722 Reportes
Kristen Bell Deepfaked in Non-Consensual AI-Generated Pornography

Loading...
La amenaza más urgente de los deepfakes no es la política, sino la pornografía.
vox.com · 2020

Kristen Bell fue la primera en descubrir que había vídeos pornográficos falsos de ella en Internet, gracias a su marido, el actor Dax Shepard. En los vídeos, su rostro ha sido manipulado sobre el cuerpo de actores porno.

"Me quedé en shock", me dijo Bell. "Es difícil pensar que me están explotando".

Y esto no solo les pasa a las celebridades. Noelle Martin, una recién graduada en derecho en Perth, Australia, descubrió que alguien tomó fotos que ella había compartido en las redes sociales y las utilizó primero para hacer un Photoshop con ella y convertirla en imágenes desnuda, y luego para crear vídeos falsos.

Los vídeos falsos suelen presentarse como una amenaza política: vídeos falsos de políticos que hacen comentarios que nunca hicieron. Pero en un informe reciente (https://deeptracelabs.com/archive/), el grupo de investigación Deeptrace descubrió que el 96 por ciento de los vídeos falsos encontrados en Internet son pornográficos. De esos vídeos, prácticamente todos son de mujeres. Y prácticamente todos se hacen sin su consentimiento.

"Se habla mucho de los desafíos que conllevan los avances en la tecnología deepfake", dijo Martin. "Pero creo que lo que a menudo se pasa por alto en la discusión es el impacto que esto tiene en las personas en este momento. No en unos pocos años, no en un par de meses. Ahora mismo".

Lo que está sucediendo en estos videos es un tipo específico de manipulación digital. No es lo mismo que los filtros de intercambio de rostros antiguos que quizás hayas usado en las redes sociales. Esas herramientas te permiten poner tu rostro en la cabeza de un amigo, pero como transfieren tanto tus rasgos faciales como tus expresiones, aún puedes controlarlo.

Los deepfakes son diferentes. Pueden tomar solo tus rasgos faciales y animar tu rostro con las expresiones de otra persona. Eso es lo que los hace tan invasivos. El creador le quita a la víctima el control sobre su rostro, usándolo para algo que nunca quiso. Al hacerlo, contribuye a una larga historia de humillación sexual de mujeres.

Puedes encontrar este video y todos los videos de Vox en YouTube (https://www.youtube.com/channel/UCLXo7UDZvByw2ixzpQCufnA). Y unirte a la Red de Informes de Código Abierto (https://www.vox.com/recode/2019/12/10/20970994/open-sourced-reporting-network) para ayudarnos a informar sobre las consecuencias reales de los datos, la privacidad, los algoritmos y la IA.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd