Incidentes Asociados

Un hombre surcoreano ha sido condenado a prisión por utilizar inteligencia artificial para generar imágenes de explotación de niños , el primer caso de este tipo en el país, ya que los tribunales de todo el mundo se enfrentan al uso de nuevas tecnologías para crear contenido sexual abusivo.
El hombre anónimo, de unos 40 años, fue sentenciado a dos años y medio de prisión este mes, según el Tribunal de Distrito de Busan y la Fiscalía del distrito.
Había creado alrededor de 360 imágenes generadas por IA en abril, dijo la fiscalía a CNN. Las imágenes no fueron distribuidas y han sido confiscadas por la policía.
Los fiscales argumentaron durante el caso que la definición de material de explotación sexual debería incluir descripciones de comportamientos sexuales de “humanos virtuales” y no sólo la apariencia de niños reales.
El fallo demostró que el contenido sexualmente abusivo puede incluir imágenes creadas con tecnología de “alto nivel” que son lo suficientemente realistas como para parecerse a niños y menores reales, dijo la fiscalía.
El caso se presenta mientras los gobiernos de todo el mundo luchan contra la explosión de la industria de la IA, con impactos de gran alcance que van desde los derechos de autor y la propiedad intelectual hasta la seguridad nacional, la privacidad personal y el contenido explícito.
Muchos ahora están compitiendo para regular la tecnología, especialmente cuando casos como la sentencia de Corea del Sur resaltan cómo la IA puede usarse para violar la autonomía y la seguridad corporal de las personas, especialmente de mujeres y menores.
A principios de este mes, la policía en España inició una investigación después de imágenes de Las niñas menores de edad fueron alteradas con IA para quitarles la ropa y enviarlas por la ciudad. En un caso, un niño había intentado extorsionar a una de las niñas utilizando una imagen manipulada de ella desnuda, dijo la madre de la niña al canal de televisión Canal Extremadura.
Durante años, los deepfakes (vídeos falsos muy convincentes creados con inteligencia artificial) se han utilizado para poner rostros de mujeres en [vídeos pornográficos, a menudo agresivos, sin su consentimiento] (https://edition.cnn.com/2023/02/16/tech /nonconsensual-deepfake-porn/index.html) Los videos a menudo parecen tan reales que puede ser difícil para las víctimas femeninas negar que en realidad no son ellas.
El tema saltó a la vista del público en febrero de este año, cuando se supo que un transmisor de videojuegos masculino de alto perfil había accedido a videos deepfake de algunas de sus colegas femeninas de streaming.
“Desde el principio, la persona que creó los deepfakes los estaba usando para hacer pornografía de mujeres sin su consentimiento”, dijo a CNN en ese momento Samantha Cole, reportera de Vice's Motherboard, que ha estado rastreando los deepfakes desde sus inicios.
La plataforma de streaming, Twitch, respondió a la polémica endureciendo sus políticas, calificando los vídeos sexuales deepfake como “ violar personalmente y más allá de molestar”. Otras plataformas importantes están actualizando sus reglas de manera similar, con TikTok agregando más restricciones sobre el intercambio de IA. deepfakes en marzo.
La Unión Europea se convirtió en una de las primeras en el mundo en establecer regulaciones sobre cómo las empresas pueden utilizar la IA en junio, seguido de China en julio. Y a principios de septiembre, algunos de los líderes tecnológicos más importantes de Estados Unidos, incluidos Bill Gates, Elon Musk y Mark Zuckerberg, [se reunieron en Washington](https://www.cnn.com/2023/09/13/tech/ schumer-tech-companies-ai-regulations/index.html) mientras el Senado se prepara para redactar una legislación sobre IA.