Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4655

Incidentes Asociados

Incidente 92622 Reportes
Giorgia Meloni Reportedly Targeted by Deepfake Pornography

Loading...
Meloni contra los deepfakes: el gobierno italiano presenta una ley de inteligencia artificial al Parlamento
europeanconservative.com · 2024

Roma ha terminado de redactar lo que sería la primera regulación integral de inteligencia artificial de Europa a nivel nacional, complementando la propia Ley de IA de la UE. El proyecto de ley, aprobado por el gobierno y presentado al Parlamento el martes 23 de abril, introduce fuertes sanciones para cualquier uso ilegal de la novedosa tecnología, según informó Il Giornale (https://www.ilgiornale.it/news/interni/cdm-ddl-sullai-stretta-sullillecita-diffusione-dei-contenuti-2313408.html).

El proyecto de ley crearía una "estrategia nacional de IA" que garantice que cualquier aplicación de tecnologías de IA respete "la autonomía y el poder de toma de decisiones" de los seres humanos.

Por un lado, el proyecto de ley propone una inversión inicial de hasta 1.000 millones de euros para promover proyectos de IA y empresas emergentes que se adhieran a la normativa. Por otro lado, prevé aplicar fuertes sanciones, incluidas fuertes multas e incluso penas de prisión de hasta cinco años, a los autores de delitos relacionados con la IA, como la violación de las leyes de derechos de autor, el uso de herramientas inteligentes para ayudar al lavado de dinero o la creación de copias digitales dañinas de otras personas, también conocidas como "deepfakes".

"La llegada de nuevas tecnologías... puede crear problemas que a su vez constituyen lagunas en la protección [que] necesariamente deben ser colmadas por la legislación penal", dijo el ministro de Justicia, Carlo Nordio, en una conferencia de prensa.

El texto del proyecto de ley establece que 

quien, con el fin de causar daño a una persona y sin su consentimiento, envíe, entregue, venda, publique o difunda de otro modo su imagen, vídeo o voz, falsificada o alterada mediante el uso de sistemas de inteligencia artificial [en la medida en que sea] adecuada para engañar sobre su identidad, será castigado con prisión de seis meses a tres años. Si del acto resulta un daño injusto, la pena será de prisión de uno a cinco años.

Italia ha estado a la vanguardia de la regulación de la IA desde el principio, y también fue el primer país de Europa en prohibir temporalmente ChatGPT de OpenAI hasta que se abordaran ciertas cuestiones de privacidad. Los esfuerzos de Roma tampoco se detienen a nivel nacional. La primera ministra Giorgia Meloni declaró anteriormente que la regulación de la IA sigue siendo una de las principales prioridades de la presidencia italiana del G7, que durará hasta finales de 2024.

La primera ministra Meloni también tiene algunas razones muy personales para emprender la lucha contra el contenido dañino generado por IA. Testificará en un juicio el 2 de julio contra dos hombres sardos que están acusados de crear varios videos pornográficos deepfake usando su rostro y subirlos a un sitio web estadounidense para adultos en 2020, dos años antes de que se convirtiera en primera ministra de Italia.

Meloni reclamaría una indemnización "simbólica" de 100.000 euros, que según su abogado se comprometió a donar a un fondo de apoyo a las mujeres víctimas de violencia doméstica.

A pesar del proceso en curso, los vídeos en cuestión siguen disponibles en varios sitios web. De hecho, aparecen en los resultados de búsqueda de Google en un lugar más alto que los artículos que tratan el caso cuando se busca el tema, lo que subraya aún más la gravedad de la situación.

La proliferación de herramientas de inteligencia artificial modernas y potentes para la generación de imágenes y vídeos en los últimos años ha hecho que la creación de deepfakes dañinos sea mucho más fácil y accesible para el público en general, por lo que también es necesario regular estos instrumentos y sus aplicaciones lo antes posible, argumenta Roma.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd