Incidents associés

Deux adolescents âgés de 13 et 14 ans de Miami, en Floride, ont été arrêtés le 22 décembre 2023 pour avoir prétendument créé des images nues générées par l'IA de camarades de classe, garçons et filles, âgés de 12 et 13 ans, et les avoir partagées sans leur consentement, rapporte WIRED, citant un rapport de police.
Selon le rapport, les adolescents auraient utilisé une « application d'IA » pour créer les fausses images explicites. Le nom de l'application n'est pas mentionné dans le rapport.
Les adolescents sont accusés de crimes au troisième degré, comparables au vol de voiture ou à la séquestration illégale. L'accusation découle d'une loi votée en Floride en 2022 visant à lutter contre le harcèlement par le biais d'images deepfakes.
Jusqu'à présent, ni les parents des garçons accusés ni l'enquêteur et le procureur en charge n'ont commenté l'affaire.
Des cas similaires ont été révélés aux États-Unis (https://www.latimes.com/california/story/2024-03-03/scandal-over-ai-generated-nudes-at-beverly-hills-middle-school-highlights-gaps-in-law) et en Europe (https://the-decoder.com/ai-generated-nude-images-of-spanish-children-spark-legal-debate-over-child-pornography/). Cependant, l'affaire de Floride est considérée comme la première arrestation et poursuite connue pour des images de nus prétendument générées par l'IA.
Les générateurs d'images IA entraînent davantage de maltraitance envers les enfants
Les corps nus représentés dans les fausses images IA ne sont pas des images de corps réels, mais des répliques créées par l'intelligence artificielle. Néanmoins, ces images peuvent sembler authentiques, ce qui peut entraîner une détresse psychologique et nuire à la réputation.
La Maison Blanche a récemment réagi aux photos dénudées de Taylor Swift générées par l'IA : Le gouvernement américain a qualifié cet incident et d'autres similaires d'« alarmants » et a déclaré que de nouvelles lois étaient nécessaires.
Fin octobre 2023, la Internet Watch Foundation (IWF) a signalé que les générateurs d'images d'IA entraînaient également une augmentation du contenu pédopornographique (CSAM).
Le Centre national pour les enfants disparus et exploités aux États-Unis a signalé une « forte augmentation » des images d'abus générées par l'IA d'ici la fin juin 2023. Les images compliqueraient les enquêtes et pourraient entraver l’identification des victimes.