Problema 3234

Los motores de búsqueda de Google y Microsoft tienen un problema con los vídeos porno deepfake. Desde que surgieron deepfakes hace media década, la tecnología se ha utilizado constantemente para abusar y acosar a las mujeres, utilizando el aprendizaje automático para transformar la cabeza de alguien en pornografía sin su permiso. . Ahora, la cantidad de videos porno deepfake no consensuados está creciendo a un ritmo exponencial, impulsado por el avance de las tecnologías AI y un ecosistema deepfake en expansión.
Un nuevo análisis de videos porno deepfake no consentidos, realizado por un investigador independiente y compartido con WIRED, muestra cuán omnipresentes se han vuelto los videos. Según el investigador, que solicitó el anonimato para evitar ser atacado en línea, se han subido al menos 244.625 vídeos a los 35 principales sitios web creados exclusiva o parcialmente para albergar vídeos porno deepfake en los últimos siete años.
Durante los primeros nueve meses de este año, se subieron 113.000 videos a los sitios web, un aumento del 54 por ciento con respecto a los 73.000 videos subidos en todo 2022. Para fines de este año, el análisis pronostica que se habrán producido más videos en 2023. que el número total de cada dos años combinados.
Estas sorprendentes cifras son solo una instantánea de cuán colosales se han vuelto los problemas con los deepfakes no consensuales: la escala total del problema es mucho mayor y abarca otros tipos de imágenes manipuladas. En los últimos años ha surgido toda una industria de abuso de deepfake, que apunta predominantemente a mujeres y se produce sin el consentimiento o el conocimiento de las personas. Aplicaciones de intercambio de rostros que funcionan con imágenes fijas y aplicaciones en las que se puede “quitar la ropa a una persona” en una foto con [sólo unos pocos clics] (https://www.wired.co.uk/article/telegram-deepfakes- deepnude-ai) también son muy destacados. Es probable que se creen millones de imágenes con estas aplicaciones.
"Esto es algo que afecta a la gente común, a los estudiantes de secundaria y a los adultos comunes; se ha convertido en algo cotidiano", dice Sophie Maddocks, que realiza investigaciones sobre derechos digitales y violencia cibersexual en la Universidad de Pensilvania. “Habría una gran diferencia si pudiéramos hacer que estas tecnologías fueran más difíciles de acceder. No deberían tomar dos segundos para incitar potencialmente a un delito sexual”.
La nueva investigación destaca 35 sitios web diferentes, que existen para alojar exclusivamente videos de pornografía deepfake o incorporar los videos junto con otro material para adultos. (No incluye videos publicados en las redes sociales, aquellos compartidos de forma privada ni fotos manipuladas). WIRED no nombra ni vincula directamente los sitios web, para no aumentar aún más su visibilidad. El investigador rastreó los sitios web para analizar la cantidad y la duración de los videos deepfake, y observó cómo las personas encuentran los sitios web utilizando el servicio de análisis SimilarWeb.
Muchos de los sitios web dejan en claro que alojan o difunden videos porno deepfake, a menudo con la palabra deepfakes o derivados de ella en su nombre. Los dos sitios web principales contienen 44.000 vídeos cada uno, mientras que otros cinco albergan más de 10.000 vídeos deepfake. La mayoría de ellos tienen varios miles de vídeos, mientras que algunos sólo enumeran unos pocos cientos. Algunos videos que analizó el investigador han sido vistos millones de veces.
La investigación también identificó 300 sitios web de pornografía general adicionales que incorporan pornografía deepfake no consensuada de alguna manera. El investigador dice que los sitios web de “filtración” y los sitios web que existen para volver a publicar imágenes de personas en las redes sociales también están incorporando imágenes deepfake. Un sitio web que se ocupa de fotografías afirma que ha "desnudo" a personas en 350.000 fotografías.
Medir la escala completa de videos e imágenes deepfake en línea es increíblemente difícil. Rastrear dónde se comparte el contenido en las redes sociales es un desafío, mientras que el contenido abusivo también se comparte en grupos de mensajería privados o canales cerrados, a menudo por personas conocidas de las víctimas. En septiembre, más de 20 niñas de entre 11 y 17 años denunciaron en la ciudad española de Almendralejo después de que se utilizaran herramientas de inteligencia artificial para generar fotografías de ellas desnudas [sin su conocimiento] (https://www.bbc.co.uk/news/ mundo-europa-66877718).
"Ha habido un crecimiento significativo en la disponibilidad de herramientas de inteligencia artificial para crear imágenes pornográficas no consentidas y deepfake, y un aumento en la demanda de este tipo de contenido en plataformas de pornografía y redes en línea ilícitas", dice Asher Flynn, profesor asociado de la Universidad de Monash, Australia. , que se centra en la IA y el abuso facilitado por la tecnología. Es probable que esto aumente con nuevas herramientas de inteligencia artificial generativa.
La puerta de entrada a muchos de los sitios web y herramientas para crear vídeos o imágenes deepfake es a través de la búsqueda. Millones de personas son dirigidas a los sitios web analizados por el investigador, y entre el 50 y el 80 por ciento de las personas llegan a los sitios web a través de una búsqueda. Encontrar vídeos deepfake mediante la búsqueda es trivial y no requiere que una persona tenga ningún conocimiento especial sobre qué buscar.
El problema es mundial. Utilizando una VPN, el investigador probó búsquedas de Google en Canadá, Alemania, Japón, Estados Unidos, Brasil, Sudáfrica y Australia. En todas las pruebas, los sitios web deepfake ocuparon un lugar destacado en los resultados de búsqueda. Los vídeos suelen centrarse en celebridades, streamers y creadores de contenido. Maddocks dice que la difusión de deepfakes se ha vuelto “endémica” y es lo que muchos investigadores temieron por primera vez cuando los primeros videos deepfake alcanzaron [prominencia en diciembre de 2017](https://www.vice.com/en/article/gydydm/gal- gadot-falso-ai-porno).
Desde que surgieron las herramientas necesarias para crear videos deepfake, se han vuelto más fáciles de usar y la calidad de los videos producidos ha mejorado. La ola de herramientas de generación de imágenes también ofrece la posibilidad de crear imágenes abusivas de mayor calidad y, eventualmente, videos. Y cinco años después de que empezaran a aparecer los primeros deepfakes, las primeras leyes están recién surgiendo que penalizan el intercambio de imágenes falsas.
La proliferación de estas aplicaciones deepfake combinada con una mayor dependencia de las comunicaciones digitales en la era Covid-19 y un "fracaso de las leyes y políticas para mantener el ritmo" ha creado una "tormenta perfecta", dice Flynn.
Los expertos dicen que, además de nuevas leyes, se necesita una mejor educación sobre las tecnologías, así como medidas para detener la difusión de herramientas creadas para causar daño. Esto incluye acciones por parte de empresas que alojan los sitios web y también de motores de búsqueda, incluidos Google y Bing de Microsoft. Actualmente, las quejas ante la Ley de Derechos de Autor del Milenio Digital (DMCA) son el principal mecanismo legal que tienen las mujeres para eliminar videos de los sitios web.
Henry Ajder, un experto en IA generativa y deepfake que ha supervisado la [difusión de las tecnologías](https://www.wired.co .uk/article/deepfake-nude-abuse), dice que agregar más “fricción” al proceso de búsqueda de videos porno deepfake, aplicaciones para cambiar las caras de las personas y herramientas que permitan específicamente la creación de imágenes no consensuadas puede reducir la propagación. "Se trata de intentar que a alguien le resulte lo más difícil posible encontrarlo", afirma. Esto podría deberse a que los motores de búsqueda rebajan los resultados de sitios web dañinos o que los proveedores de servicios de Internet bloquean sitios, dice. "Es difícil sentirse realmente optimista, dado el volumen y la escala de estas operaciones, y la necesidad de que las plataformas (que históricamente no han tomado en serio estos problemas) lo hagan de repente", dice Ajder.
"Como cualquier motor de búsqueda, Google indexa el contenido que existe en la web, pero diseñamos activamente nuestros sistemas de clasificación para evitar sorprender a las personas con contenido inesperado, dañino o explícito que no quieren ver", dice el portavoz de Google, Ned Adriance, señalando su página sobre cuándo se eliminan los resultados de búsqueda. Las páginas de soporte de Google dicen que es posible que las personas soliciten que se elimine la "pornografía falsa involuntaria". Su formulario de eliminación requiere que las personas envíen manualmente las URL y los términos de búsqueda que se utilizaron para encontrar el contenido. "A medida que este espacio evoluciona, estamos trabajando activamente para agregar más salvaguardas para ayudar a proteger a las personas, basándonos en sistemas que hemos creado para otros tipos de imágenes explícitas no consensuadas", dice Adriance.
Courtney Gregoire, directora de seguridad digital de Microsoft, dice que no permite los deepfakes y que se pueden informar a través de su web formularios. "La distribución de imágenes íntimas no consensuales (NCII) es una grave violación de la privacidad y la dignidad personal con efectos devastadores para las víctimas", dice Gregoire. "Microsoft prohíbe NCII en nuestras plataformas y servicios, incluida la solicitud de NCII o la promoción de la producción o redistribución de imágenes íntimas sin el consentimiento de la víctima".
Si bien el número de vídeos e imágenes sigue aumentando vertiginosamente, el impacto en las víctimas puede ser duradero. “El acoso en línea por motivos de género está teniendo un enorme efecto paralizador en la libertad de expresión de las mujeres”, dice Maddocks. Como informado por WIRED, las streamers femeninas de Twitch objetivo de deepfakes se sienten violadas y expuestas a más acoso. y perder el tiempo, y algunos dijeron que el contenido no consensuado llegó a miembros de la familia.
Flynn, profesora de la Universidad de Monash, dice que su investigación ha encontrado “altas tasas” de problemas de salud mental (como ansiedad, depresión, autolesiones y suicidio) como resultado del abuso digital. "Los impactos potenciales en la salud física y mental de una persona, así como en su empleo, familia y vida social, pueden ser inmensos", dice Flynn, "independientemente de si la imagen es falsa o 'real'".