Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2697

Incidentes Asociados

Incidente 48015 Reportes
Non-Consensual Deepfake Porn Targeted Female Content Creators

Loading...
Aparecieron en videos porno falsos sin su consentimiento. Pocas leyes los protegen.
nbcnews.com · 2023

La pornografía generada por inteligencia artificial que muestra los rostros de mujeres que no dan su consentimiento se está volviendo más omnipresente en línea, y el problema se está extendiendo al mundo de los influencers y streamers populares.

En enero, la transmisora en vivo británica "Sweet Anita", que tiene 1,9 millones de seguidores en Twitch, donde publica videos de sus juegos e interactuando con los seguidores, fue notificada de que circulaba en línea una gran cantidad de videos falsos sexualmente explícitos con los rostros de los transmisores de Twitch. .

Su primer pensamiento fue: "Espera, ¿estoy en esto?"

Rápidamente buscó en Google su nombre junto con el término "deepfake", una palabra que se usa para describir un video o una imagen manipulada digitalmente, muy realista pero falso, y una técnica que se usa cada vez más, generalmente sin consentimiento, con fines pornográficos. La búsqueda inicial de Anita arrojó varios videos que mostraban su rostro editado en el cuerpo de otra persona.

“Obviamente, esto ha estado sucediendo durante bastante tiempo sin mi conocimiento, no tenía idea, podrían haber sido años, por lo que sé”, dijo Anita, de 32 años, quien no quiso compartir su nombre completo con NBC News. preocupaciones por su seguridad y privacidad fuera de línea.

Hany Farid, profesor de ciencias de la computación en la Universidad de California, Berkeley, dijo que las falsificaciones profundas son un fenómeno que está “empeorando absolutamente” a medida que se vuelve más fácil producir videos sofisticados y realistas a través de aplicaciones y sitios web automatizados.

La cantidad de videos pornográficos falsos profundos disponibles en línea ha experimentado un fuerte aumento, casi duplicándose cada año desde 2018, según una investigación realizada por Genevieve Oh, analista de transmisión en vivo. En 2018, solo se subieron 1897 videos a un conocido sitio de transmisión de deepfakes, pero para 2022 este número aumentó a más de 13 000 con más de 16 millones de visitas mensuales.

Anteriormente, las celebridades eran principalmente el objetivo de las falsificaciones profundas.

“Ahora, de repente, las personas vulnerables son personas que tienen huellas en línea muy pequeñas”, dijo Farid. “La tecnología se está volviendo tan buena que puede generar imágenes a partir de estadísticas de entrenamiento relativamente pequeñas, no estas horas y horas de video que solíamos necesitar”.

Cualquier persona interesada en crear deepfakes puede acceder rápidamente a una gran cantidad de aplicaciones de intercambio de rostros gratuitas y de pago disponibles en las tiendas de aplicaciones de Google Play y Apple, lo que facilita que cualquier persona cargue una foto y la edite en una foto o video en segundos.

Algunas plataformas importantes como Reddit, [Facebook](https://about.fb.com/news/2020/01/enforcing-against-manipulated -mediadeepfake), TikTok y [Twitter](https://help.twitter.com /en/rules-and-policies/manipulated-media) han intentado abordar la propagación de la pornografía falsa con cambios en las políticas. Si bien cada una de las plataformas prohíbe específicamente el material, algunas han tenido problemas para moderarlo. Una búsqueda en Twitter, por ejemplo, encontró videos pornográficos falsos que afirmaban presentar estrellas de Twitch, junto con hashtags que promocionaban los falsos profundos.

En enero, la proliferación de pornografía deepfake hizo olas en línea, cuando un popular transmisor de Twitch con más de 300,000 seguidores admitió haber pagado por material explícito con versiones generadas por IA de sus compañeros.

El 30 de enero, en un [video de disculpa] entre lágrimas (http:// https://www.twitch.tv/videos/1723055801) que se compartió en Twitter y obtuvo millones de visitas, Brandon Ewing, quien usa el nombre de usuario “ Atrioc” en Twitch, dijo que hizo clic en un anuncio de pornografía falsa mientras navegaba por un popular sitio web de pornografía. Dijo que luego se suscribió y pagó por el contenido en un sitio web diferente que mostraba a otras transmisoras femeninas después de volverse "morbosamente curioso".

En una declaración más larga publicada en Twitter el 1 de febrero, Ewing se dirigió directamente a los streamers en vivo de Twitch Maya Higa y Pokimane, cuya imagen apareció brevemente en una pestaña para un sitio web que aloja pornografía falsa durante una de sus transmisiones en vivo.

“Sus nombres fueron arrastrados y fueron sexualizados en contra de su voluntad”, dijo. “Lamento que mis acciones hayan llevado a una mayor explotación de ti y de tu cuerpo, y lamento que tu experiencia no sea poco común”.

Ewing no respondió a la solicitud de comentarios.

Pokimane tampoco respondió a la solicitud de comentarios, pero en un tweet del 31 de enero escribió, "dejen de sexualizar a las personas sin su consentimiento". Eso es todo, ese es el tweet".

Higa dijo que no tenía más comentarios que hacer más allá de su declaración de Twitter el 31 de enero, en la que escribió, en parte, la “La situación me hace sentir repugnante, vulnerable, con náuseas y violada, y todos estos sentimientos me resultan demasiado familiares”.

El incidente destacó la creciente prevalencia de la pornografía no consensuada generada por IA y los problemas éticos que crea.

Ha habido un "aumento" en los sitios web que están "dispuestos, ansiosos y monetizando el alojamiento de este material", dijo Farid.

QTCinderella, otra transmisora de Twitch que descubrió que había aparecido en el sitio web de deepfake, dijo que lo encontró particularmente doloroso porque Ewing es un amigo cercano.

“Creo que eso fue lo más desafortunado: no me enteré por Atrioc. Me enteré por Internet hablando de eso”, dijo QTCinderella, de 28 años, quien tampoco compartió su nombre completo con NBC News para proteger su privacidad y seguridad fuera de línea.

Ella dijo que rápidamente rastreó el contenido del video a una cuenta en un sitio web basado en suscripción y emitió un aviso de eliminación, pero los videos continúan propagándose como un "reguero de pólvora".

En los Estados Unidos, mientras que la mayoría de los estados tienen leyes que prohíben la pornografía vengativa, solo [Nueva York, Virginia, Georgia y California](https:/ /cybercivilrights.org/deep-fake-laws/) tienen leyes que abordan específicamente los medios falsos, según la Iniciativa de Derechos Civiles Cibernéticos. Mientras tanto, el Reino Unido anunció en noviembre el año pasado que estaba planeando criminalizar los medios falsos explícitos no consensuados.

QTCinderella dijo que el marco legal actual es "desalentador".

“Todos los abogados con los que he hablado esencialmente han llegado a la conclusión de que no tenemos un caso; no hay forma de demandar al tipo”.

Si bien una gran cantidad de pornografía falsa puede parecer amateur y de baja calidad, Farid dijo que ahora también está viendo cuentas que ofrecen crear sofisticadas falsificaciones personalizadas de cualquier mujer por una pequeña tarifa.

Después de ver los videos falsos profundos que se vendían de ella en línea, Anita dijo que se sentía aturdida, cansada y desvinculada.

“Me venden en contra de mi voluntad”, dijo. “No consentí que me sexualizaran”.

QTCinderella dijo experimentó “dismorfia corporal”.

“Cuando ves el cuerpo de una estrella del porno injertado tan perfectamente donde debería estar el tuyo, es el juego de comparaciones más obvio que podrías tener en tu vida”, dijo. "Lloré y dije 'mi cuerpo nunca será así'".

Sophie Compton, quien hace campaña contra el abuso de imágenes íntimas con la organización My Image, My Choice, dijo que las mujeres que son atacadas son “avergonzadas o silenciadas” y sienten que su experiencia se minimiza porque hay pocos recursos legales. opciones disponibles para los afectados por deepfakes.

“Necesitamos encontrar una manera de hacer que estos sitios y su modelo de negocios sean imposibles”, dijo Compton.

Las plataformas específicas que albergan imágenes sexuales no consensuadas deben rendir cuentas, en lugar de cuentas y creadores individuales, dijo Farid. “Si realmente quiere abordar este problema, vaya contra la corriente”, dijo. “Ahí es donde está todo el poder”.

Anita dijo que quiere que haya “consecuencias muy visibles”.

Lo que más la inquieta en el futuro es que es imposible saber quién compró los videos falsos.

“Cuando voy a una reunión y saludo, podría terminar abrazando y firmando algo para alguien que me vio ser falsificado … y no tendría forma de saber que están consumiendo eso”, dijo. “Que compraran mi cuerpo en contra de mi voluntad es realmente horrible”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd