Incidentes Asociados
La primera ministra italiana, Giorgia Meloni, fue citada a declarar en el tribunal de Sassari como parte agraviada en un caso que involucra videos pornográficos inventados que superponen el rostro de la líder sobre actrices.
Actualmente, se están llevando a cabo procedimientos por difamación en Cerdeña contra dos personas, un dúo de padre e hijo, que están acusados de difundir videos manipulados en un sitio web con sede en Estados Unidos en 2020.
El caso
Puede que el rostro sea el de Giorgia Meloni, pero el cuerpo no es el suyo. Los videos pornográficos deepfake (https://www.ccn.com/news/us-house-representatives-votes-tiktok-ban/) con el Primer Ministro han obtenido millones de visitas, lo que ha llevado al líder italiano a ir a juicio para pedir una indemnización.
Supuestamente elaborados por un dúo de padre e hijo de Sassari, de 73 y 40 años, respectivamente, los videos fueron subidos a Internet en 2020. Los acusados están acusados de [difamación]. (https://www.ccn.com/news/supreme-court-joe-biden-social-media-influence/)
Giorgia Meloni: el primer ministro italiano pide daños y perjuicios por los vídeos pornográficos deepfake https://t.co/bBk0AnUXDm
--- BBC News (World) (@BBCWorld) [20 de marzo de 2024] (https://twitter.com/BBCWorld/status/1770408212434387251?ref_src=twsrc%5Etfw)
Meloni pide la restitución de daños y perjuicios por un total de 108.000 dólares. La líder del gobierno dijo que donaría la suma al fondo nacional del Ministerio del Interior para ayudar a las mujeres afectadas por la violencia. "Esta petición sirve como un mensaje a todas las mujeres que sufren tales abusos, instándolas a no dudar en denunciar", aclaró la abogada de Meloni, Maria Giulia Marongiu. "La suma es emblemática, destinada a reforzar la protección de las víctimas, mujeres que, a menudo sin saberlo, caen víctimas de tales delitos.
Posteriormente, se ha fijado una audiencia ante la jueza Monia Adami para el 2 de julio de 2024. Según sus abogados, el testimonio del Primer Ministro es necesario. Y la jueza lo ha ordenado, acordando la fecha con la parte ofendida.
Meloni no es la primera víctima
Michelle Obama, Scarlett Johansson y Emma Watson han sido víctimas de esta tendencia inquietante. El proceso de creación de pornografía deepfake es sorprendentemente sencillo. Los usuarios pueden descargar una foto facial y pegarla sin problemas al cuerpo de un actor pornográfico.
En 2019, DeepTrace, una empresa holandesa Una empresa dedicada a monitorear medios sintéticos en línea, reveló que un asombroso 96% del contenido deepfake que circula en Internet es de naturaleza pornográfica. Febrero de 2023 marcó un mes pico para la producción y difusión de material pornográfico deepfake.
Meta lanzó una campaña publicitaria para una aplicación deepfake que usaba rostros de celebridades como Emma Watson y Scarlett Johansson sin consentimiento, lo que plantea cuestiones éticas sobre el contenido deepfake que prolifera rápidamente. pic.twitter.com/HPcJsVX9DG
--- TheSwaddle (@TheSwaddle) 8 de marzo de 2023
Este inquietante fenómeno ha ido ganando impulso. No solo atrapa a primeros ministros y actrices. Se aprovecha de mujeres y niñas comunes que se convierten en víctimas involuntarias de la pornografía vengativa o la sextorsión. A principios de septiembre de 2023, 20 niñas de Almendralejo, un municipio español de Badajoz, se horrorizaron al descubrir que sus compañeras habían utilizado un software impulsado por inteligencia artificial (IA) para fabricar imágenes de ellas completamente desnudas.
Incidentes similares se han producido en toda Europa con la aparición de la aplicación BikiniOff. Esta aplicación es capaz de desnudar virtualmente a personas basándose en una fotografía. Esto desató una controversia cuando dos personas lo explotaron para crear imágenes falsas de desnudos de sus compañeros de clase bajo la apariencia de una "broma", arrojando luz sobre otra faceta de la epidemia de deepfakes.
Las plataformas sociales intentan abordar los deepfakes
En enero de 2020, Meta anunció su postura contra el contenido manipulado que prolifera en sus plataformas. Fue una respuesta directa a la creciente prevalencia de deepfakes en línea. Haciendo hincapié en su compromiso de salvaguardar a los usuarios, Meta prometió eliminar rápidamente cualquier contenido dañino alterado por IA.
Mientras tanto, YouTube ha lanzado una nueva herramienta para identificar el contenido generado por IA. Esto permite a los creadores marcar videos que contienen elementos sintetizados a través de esta tecnología de forma voluntaria. La característica innovadora requiere que los creadores marquen de forma transparente el contenido "alterado" durante la carga y publicación, incluso si se parece mucho a la realidad.
?ÚLTIMA HORA?
A partir de HOY, YouTube presenta una nueva herramienta en el estudio de creadores que requiere que los creadores revelen cuándo se crea contenido realista con medios alterados o sintéticos, incluida la IA generativa. (Piense en DeepFakes) pic.twitter.com/Bc1EqZ7UIE
--- vidIQ (@vidIQ) 18 de marzo de 2024
"La proliferación de deepfakes no solo plantea graves preocupaciones para la privacidad y la seguridad en línea, sino que también genera preguntas éticas sobre el uso responsable de dicha tecnología", dijo un experto en inteligencia artificial a CCN, solicitando el anonimato.
"A medida que la IA sigue avanzando, se hace imperativo deliberar sobre sus implicaciones éticas y garantizar su aplicación juiciosa (https://www.ccn.com/news/microsofts-ai-pc-new-features/) para evitar la explotación y el daño".
"En esencia, el caso Meloni subraya la necesidad apremiante de enfrentar de frente la amenaza de las deepfakes. Y necesitamos implementar medidas sólidas para salvaguardar la privacidad y la seguridad de las personas en el ámbito digital", agregó el experto.