Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2695

Incidentes Asociados

Incidente 48015 Reportes
Non-Consensual Deepfake Porn Targeted Female Content Creators

Loading...
La pornografía deepfake no consensuada pone a la IA en el centro de atención
cnn.com · 2023

En su “evaluación de amenazas mundial” anual, los principales funcionarios de inteligencia de EE. UU. advirtieron en los últimos años sobre la amenaza que representan los llamados deepfakes: videos falsos convincentes hechos con inteligencia artificial.

“Adversarios y competidores estratégicos”, advirtieron en 2019, podrían usar esta tecnología “para crear archivos de imagen, audio y video convincentes, pero falsos, para aumentar las campañas de influencia dirigidas contra Estados Unidos y nuestros aliados y socios”.

Los escenarios no son difíciles de imaginar; un video falso que muestra a un político en una posición comprometedora; audio falso de un líder mundial discutiendo información confidencial.

La amenaza no parece demasiado lejana. El reciente éxito viral de ChatGPT, un A.I. chatbot que puede responder preguntas y escribir prosa, es un recordatorio de lo poderoso que puede ser este tipo de tecnología.

Pero a pesar de las advertencias, no hemos visto muchos casos notables, que sepamos, en los que los deepfakes se hayan implementado con éxito en la geopolítica.

Pero hay un grupo contra el que la tecnología se ha utilizado como arma constantemente y durante varios años: las mujeres.

Se han utilizado deepfakes para poner caras de mujeres, sin su consentimiento, en videos pornográficos a menudo agresivos. Es un giro depravado de IA en la práctica humillante de la pornografía de venganza, con videos falsos que aparecen tan reales que puede ser difícil para las víctimas femeninas negar que no son realmente ellas.

El problema de larga data explotó a la vista del público la semana pasada cuando se supo que Atrioc, un streamer masculino de videojuegos de alto perfil en la popular plataforma Twitch, había accedido a videos falsos de algunas de sus colegas femeninas de Twitch. Luego se disculpó.

En medio de las consecuencias, la transmisora de Twitch "Sweet Anita" se dio cuenta de que existen representaciones falsas de ella en videos pornográficos en línea.

“Es muy, muy surrealista verte hacer algo que nunca has hecho”, dijo a CNN la transmisora de Twitch “Sweet Anita” después de darse cuenta la semana pasada de que su rostro había sido insertado en videos pornográficos sin su consentimiento.

“Es como si vieras algo impactante que te sucede a ti mismo. Como si vieras un video de ti mismo siendo asesinado, o un video de ti mismo saltando de un acantilado”, dijo.

Pero el uso profundamente perturbador de la tecnología de esta manera no es novedoso.

De hecho, el mismo término "deepfake" se deriva del nombre de usuario de un colaborador anónimo de Reddit que comenzó a publicar videos manipulados de celebridades femeninas en escenas pornográficas en 2017.

“Desde el principio, la persona que creó los deepfakes los usaba para hacer pornografía de mujeres sin su consentimiento”, dijo a CNN Samantha Cole, reportera de Vice’s Motherboard, que ha estado rastreando los deepfakes desde sus inicios.

La comunidad de juegos en línea es un lugar notoriamente difícil para las mujeres: la campaña de acoso “Gamergate” de 2014 ejemplo destacado.

Pero las preocupaciones sobre el uso de imágenes pornográficas no consensuadas no son exclusivas de esta comunidad y amenazan con volverse más comunes a medida que la tecnología de inteligencia artificial se desarrolla a una velocidad vertiginosa y la facilidad para crear videos falsos sigue mejorando.

“Estoy desconcertado por lo horribles que son las personas entre sí en Internet de una manera que no creo que estén cara a cara”, dijo Hany Farid, profesor de la Universidad de California, Berkeley, y experto en análisis forense digital. le dijo a CNN.

“Creo que tenemos que empezar a tratar de entender, ¿por qué esta tecnología, este medio, permite y saca aparentemente lo peor de la naturaleza humana? Y si vamos a tener estas tecnologías arraigadas en nuestras vidas de la forma en que parecen estarlo, creo que vamos a tener que empezar a pensar en cómo podemos ser mejores seres humanos con este tipo de dispositivos”, dijo. .

Es parte de un problema sistémico mucho más grande.

“Todo es cultura de la violación”, dijo Cole. “No sé cuál es la solución real, aparte de llegar a ese problema fundamental de falta de respeto y falta de consentimiento y estar de acuerdo con violar el consentimiento de las mujeres”.

Ha habido esfuerzos de los legisladores para tomar medidas enérgicas contra la creación de imágenes no consensuadas, ya sea generadas por IA o no. En California, se han introducido leyes para [intentar contrarrestar](https://www.dwt.com/ insights/2019/10/california-deepfakes-law) el potencial de uso de deepfakes en una campaña electoral y en la pornografía no consentida.

Pero hay escepticismo. “Ni siquiera hemos resuelto los problemas del sector tecnológico de hace 10 o 20 años”, dijo Farid, y señaló que el desarrollo de la inteligencia artificial “se está moviendo mucho, mucho más rápido que la revolución tecnológica original”.

“Muévete rápido y rompe cosas”, fue el lema del fundador de Facebook, Mark Zuckerberg, en los primeros días de la empresa. A medida que el poder, y de hecho el peligro, de su plataforma se hizo evidente, más tarde cambió el lema a "Muévete rápido con una infraestructura estable".

Ya sea por negligencia deliberada o por ignorancia, Silicon Valley no estaba preparado para la avalancha de odio y desinformación que se ha enconado en sus plataformas. Las mismas herramientas que había construido para unir a las personas también se han convertido en armas para dividir.

Y si bien se ha debatido mucho sobre la "IA ética", ya que Google y Microsoft parecen estar listos para una carrera armamentista de IA, existe la preocupación de que las cosas se estén moviendo demasiado rápido.

“Las personas que están desarrollando estas tecnologías, los académicos, las personas en los laboratorios de investigación de Google y Facebook, deben comenzar a preguntarse, ¿por qué están desarrollando esta tecnología?, sugirió Farid.

“Si los daños superan a los beneficios, ¿debería bombardear Internet con su tecnología y publicarla y luego sentarse y decir: 'bueno, veamos qué sucede después?'”

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd