
Un Sud-Coréen a été condamné à la prison pour avoir utilisé l'intelligence artificielle pour générer des images d'exploitation d'enfants , le premier cas de ce type dans le pays alors que les tribunaux du monde entier sont confrontés à l'utilisation des nouvelles technologies pour créer du contenu sexuel abusif.
L’homme anonyme, âgé d’une quarantaine d’années, a été condamné ce mois-ci à deux ans et demi de prison, selon le tribunal du district de Busan et le bureau du procureur du district.
Il avait créé environ 360 images générées par l’IA en avril, a déclaré le bureau du procureur à CNN. Les images n'ont pas été diffusées et ont été confisquées par la police.
Les procureurs ont fait valoir au cours de l’affaire que la définition du matériel d’exploitation sexuelle devrait inclure des descriptions de comportements sexuels d’« humains virtuels » et pas seulement l’apparence d’enfants réels.
La décision a montré que les contenus sexuellement abusifs peuvent inclure des images réalisées avec une technologie de « haut niveau » suffisamment réalistes pour ressembler à de vrais enfants et mineurs, a indiqué le bureau du procureur.
Cette affaire survient alors que les gouvernements du monde entier sont aux prises avec l’explosion de l’industrie de l’IA, avec des conséquences considérables allant du droit d’auteur et de la propriété intellectuelle à la sécurité nationale, en passant par la vie privée et les contenus explicites.
Beaucoup se précipitent désormais pour réglementer la technologie – d’autant plus que des cas comme la condamnation sud-coréenne mettent en évidence la manière dont l’IA peut être utilisée pour violer l’autonomie et la sécurité corporelles des personnes, en particulier des femmes et des mineurs.
Plus tôt ce mois-ci, la police espagnole a lancé une enquête après des images de les filles mineures ont été modifiées par l'IA pour retirer leurs vêtements et envoyées en ville. Dans un cas, un garçon avait tenté d'extorquer une des filles en utilisant une image manipulée d'elle nue, a déclaré la mère de la jeune fille à la chaîne de télévision Canal Extremadura.
Pendant des années, les deepfakes – de fausses vidéos très convaincantes réalisées à l'aide de l'IA – ont été utilisés pour mettre le visage de femmes dans des [vidéos pornographiques, sans leur consentement, souvent agressives.](https://edition.cnn.com/2023/02/16/tech /nonconsensual-deepfake-porn/index.html) Les vidéos semblent souvent si réelles qu'il peut être difficile pour les femmes victimes de nier que ce n'est pas vraiment elles.
Le problème a été porté à la connaissance d'un public plus large en février de cette année lorsqu'il est apparu qu'un streamer de jeux vidéo masculin de haut niveau avait accédé à de fausses vidéos de certaines de ses collègues de streaming féminines.
"Dès le début, la personne qui a créé les deepfakes l'utilisait pour faire de la pornographie sur des femmes sans leur consentement", a déclaré à l'époque à CNN Samantha Cole, une journaliste de Vice's mère, qui suit les deepfakes depuis leur création.
La plateforme de streaming Twitch a répondu à la controverse en renforçant ses politiques, qualifiant les vidéos sexuelles deepfake de « personnellement violant et au-delà de bouleversant. D'autres grandes plateformes mettent également à jour leurs règles, avec TikTok ajoutant des restrictions supplémentaires sur le partage de l'IA. deepfakes en mars.
L'Union européenne est devenue l'une des premières au monde à établir des réglementations sur comment les entreprises peuvent utiliser l'IA en juin, suivi de la Chine en juillet. Et plus tôt en septembre, certains des plus grands leaders technologiques aux États-Unis – dont Bill Gates, Elon Musk et Mark Zuckerberg – [se sont réunis à Washington](https://www.cnn.com/2023/09/13/tech/ schumer-tech-companies-ai-regulations/index.html) alors que le Sénat se prépare à rédiger un projet de loi sur l'IA.