Incidents associés

La police japonaise a arrêté lundi un homme de 43 ans pour avoir utilisé l'intelligence artificielle pour débloquer efficacement des vidéos porno pixélisées, dans la première affaire pénale du pays impliquant l'utilisation abusive de la puissante technologie.
Masayuki Nakamoto, qui gère son propre site Web dans la préfecture méridionale de Hyogo, a extrait des images de stars du porno de vidéos japonaises pour adultes et les a trafiquées avec la même méthode que celle utilisée pour créer des échanges de visage réalistes dans [deepfake](https://www.vice. com/en/article/7x57v9/most-deepfakes-are-porn-harssment-not-fake-news).
Mais au lieu de changer de visage, Nakamoto a utilisé un logiciel d'apprentissage automatique pour reconstruire les parties floues de la vidéo sur la base d'un grand nombre de nus non censurés et a vendu le contenu en ligne. Les pénis et les vagins sont pixélisés dans le porno japonais parce qu'une loi sur l'obscénité interdit les représentations explicites des organes génitaux.
Nakamoto aurait gagné environ 11 millions de yens (96 000 dollars) en vendant plus de 10 000 vidéos manipulées, bien qu'il ait été arrêté spécifiquement pour avoir vendu 10 fausses photos à environ 2 300 yens (20 dollars) chacune.
Nakamoto a plaidé coupable à des accusations de violation du droit d'auteur et d'affichage d'images obscènes et a déclaré qu'il l'avait fait pour de l'argent, selon [NHK](https://www3.nhk.or.jp/news/html/20211018/k10013311681000.html?utm_int =news-new_contents_list-items_086). Il a été arrêté lorsque la police a mené une « cyber patrouille », a rapporté le diffuseur japonais.
Les images photoréalistes créées à l'aide de l'IA sont de plus en plus courantes et ont soulevé de nombreuses questions juridiques et éthiques concernant [la confidentialité](https://www.vice.com/en/article/qvgkb7/a-viral-chinese-deepfake-app-is -susciter-un-débat-sur-la-vie-privée), exploitation sexuelle, [copyright](https://www.vice.com/en/article/9kx8j5/ai-could-usher-in-a-new-generation-of -catfishing), et l'expression artistique.
« C'est le premier cas au Japon où la police a arrêté un utilisateur d'IA », a déclaré Daisuke Sueyoshi, un avocat qui a jugé des affaires de cybercriminalité, à VICE World News. "Pour le moment, aucune loi ne criminalise l'utilisation de l'IA pour créer de telles images."
Par exemple, Nakamoto n'a été accusé d'aucune infraction pour avoir violé la vie privée des acteurs des vidéos.
À l'échelle mondiale, les victimes de vidéos trafiquées, souvent des femmes, et les gouvernements sont aux prises avec une prolifération de deepfakes. À Taïwan, un homme a été arrêté également lundi pour avoir vendu du porno deepfake sur un groupe Telegram comptant quelque 6 000 membres. La présidente taïwanaise Tsai Ing-wen a qualifié le crime de "violence sexuelle en ligne" et a déclaré qu'elle envisagerait une législation à son encontre.
« Ces victimes pourraient être des personnes dont vous et moi nous soucions. Ils pourraient être nos familles et nos amis. Nous ne pouvons pas nous asseoir sur la touche », a déclaré Tsai dans un [article Facebook](https://www.facebook.com/tsaiingwen/photos/a.10151242056081065/10157736557941065/?type=3&xts%5B0%5D=68. ARAExGcGgRyOJzg73NNeAVUupkHqti0EO6CReD3enyUGwlHNojC7rcLmPqS3xQ3mBNxF1pMyvXCwPIACFba9GQpVGXMxb6W09dDsHgtXffVpRwa8H3tMw16UsdGvRYF2nSgBLoGwpN0KXQt7MjvuP-ExXXFDRd6aMJE5RVfeCN4ysTgGlrMpS4MaziWGDuzHUWheRLPO9XTeNd7Xq1hF_C8-BkOIxKwKbTRLw9bs2GOGKHGUZxH_qaE_pU6ux6pByM3ZTsasA9k1kU0lQA-dLyuHOrU5gNweveMO9WfAFJitFi5OMR4&tn=-R).
Tsai a également lié l'utilisation de la technologie à la menace que représentent les fausses vidéos et les fausses informations pour la démocratie.
Le potentiel des deepfakes pour semer la méfiance et manipuler l'opinion publique a été démontré dès 2018, lorsqu'une [vidéo virale](https://www.buzzfeednews.com/article/davidmack/obama-fake-news-jordan-peele- psa-video-buzzfeed) a montré l'ancien président américain Barack Obama qualifiant son successeur Donald Trump de "merde totale et complète".
L'année suivante, la Californie [interdit les deepfakes politiques] (https://www.theguardian.com/us-news/2019/oct/07/california-makes-deepfake-videos-illegal-but-law-may-be-hard -à appliquer) dans les 60 jours suivant une élection pour lutter contre la désinformation potentielle de la campagne.
Jusqu'à présent, comme dans le cas de Nakamoto, la technologie deepfake a été largement utilisée pour simuler des vidéos pornographiques.
Selon Sensity, une startup qui propose des services de détection de fausses vidéos, 96 % des vidéos deepfake représentaient de la pornographie non consensuelle en 2019. En fait, les [utilisateurs] de Reddit (https://www.technologyreview.com/2021/02/12/1018222/deepfake-revenge-porn-coming-ban/) crédités d'avoir propulsé les deepfakes dans le grand public ont utilisé cette technologie pour échanger les visages de célébrités féminines dans des vidéos porno. Une telle utilisation a conduit à de nombreux cas de victimes luttant pour supprimer les fausses vidéos compromettantes d'Internet .
En Inde, un gang aurait fait chanter des personnes en menaçant d'envoyer des vidéos deepfake d'eux à Leurs familles.
Sueyoshi a déclaré que la criminalisation de l'utilisation de logiciels deepfake ou de technologies similaires n'est pas la bonne réponse au problème, car les outils eux-mêmes pourraient être utilisés à des fins légitimes.
"Utiliser l'IA pour soulever des mosaïques n'est pas ce qui ne va pas. C'est ainsi que le suspect Nakamoto a utilisé l'IA », a-t-il déclaré.
Mais étant donné les cas de violation du droit d'auteur ou d'exploitation de la vie privée d'une personne, Sueyoshi a déclaré qu'il était nécessaire d'introduire des lois qui restreignent comment, et non si, la technologie deepfake est utilisée.