Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4051

Incidents associés

Incident 7777 Rapports
South Korea Experiences a Surge of Explicit Deepfake Pornography

Loading...
La Corée du Sud fait face à une crise du deepfake porn
bloomberg.com. · 2024

La Corée du Sud a été secouée par une vague d'images sexuellement explicites deepfake créées et partagées en ligne, ciblant sans discrimination les femmes et les filles en utilisant leurs photos d'école (https://www.bbc.com/news/articles/cpdlpj9zn9go), leurs selfies sur les réseaux sociaux (https://www.koreatimes.co.kr/www/nation/2024/09/113_381693.html) et même leurs portraits militaires (https://english.hani.co.kr/arti/english_edition/e_national/1155588.html). Une chaîne Telegram comptant plus de 220 000 participants aurait été utilisée pour créer et partager ces images pornographiques générées par l'intelligence artificielle, servant de rappel mondial des conséquences plus sombres de la ruée généralisée vers cette technologie.

Les utilisateurs pouvaient télécharger des photos et en quelques secondes créer du contenu explicite avec les visages de leurs amis, camarades de classe ou partenaires amoureux. Les premiers reportages des médias locaux ont incité davantage de femmes à se présenter comme victimes et davantage de chaînes Telegram ont été exposées, révélant la véritable ampleur du problème. De nombreuses victimes impliquées sont mineures. Des manifestants portant des masques blancs sur les yeux se sont rassemblés à Séoul pour réclamer justice à la fin du mois dernier.

Alors que l’indignation grandissait, le président sud-coréen Yoon Suk Yeol a appelé son gouvernement à sévir contre les abus numériques, et les autorités ont déclaré qu’elles formeraient un groupe de travail pour s’attaquer au problème. Alors que la police enquêtait, une autre tendance inquiétante est apparue. Les données préliminaires indiquent qu’une grande majorité des auteurs présumés de la récente vague d’affaires étaient des adolescents.

« Certains pourraient considérer qu’il s’agit d’une simple farce, mais il s’agit clairement d’un acte criminel qui exploite la technologie sous le couvert de l’anonymat », a déclaré Yoon lors d’une réunion du cabinet à la fin du mois dernier, reconnaissant que de nombreuses victimes et auteurs étaient mineurs.

Yoon a raison. Il ne s’agit pas d’une simple farce, et l’impact de ce type de violence sexuelle numérique peut être dévastateur pour les victimes. Une grande partie de la responsabilité est à juste titre imputée à Telegram, d’autant plus que le scandale atteint son paroxysme au moment même où le PDG de la plateforme, Pavel Durov, a été arrêté et inculpé en France pour complicité présumée de crimes, notamment de partage de pornographie infantile, commis sur son application. Les autorités coréennes ont déclaré que Telegram coopère avec l’enquête et les demandes de suppression de contenu.

Mais les propos de Yoon sonneront creux pour certains, étant donné qu’il est arrivé au pouvoir en 2022 en courtisant les jeunes électeurs masculins avec des propositions visant à supprimer le ministère de l’Égalité des sexes, qu’il a accusé de traiter les hommes comme des « criminels sexuels potentiels ». Il a également affirmé que la discrimination sexuelle systémique n’existe pas en Corée du Sud, et a sous-entendu que le féminisme était responsable du faible taux de natalité du pays. Dans le même temps, les femmes gagnent environ 30 % de moins que leurs homologues masculins, ce qui représente l’écart salarial entre les sexes le plus élevé du monde développé. Même dans les ménages à double revenu, les femmes assument la plus grande partie des tâches ménagères et des responsabilités liées à la garde des enfants.

Et avant que la récente vague d’outils d’IA ne facilite la génération d’images explicites deepfake, des groupes de défense des droits avaient attiré l’attention sur une série de crimes sexuels numériques, impliquant généralement des images intimes non consensuelles ou des caméras cachées.

Il existe de nombreuses raisons pour lesquelles les femmes sud-coréennes, comme leurs homologues du monde développé, choisissent de ne pas avoir d’enfants, notamment la participation croissante au marché du travail et le coût inégal de l’éducation des enfants. Plutôt que de blâmer le féminisme, il serait peut-être plus utile d’examiner cette montagne de données profondément troublantes. Ironiquement, l’un des principaux groupes Telegram diffusant ces images aurait compté quelque 227 000 membres, soit à peu près le même nombre de bébés nés l’année dernière.

Les femmes sud-coréennes mettent au grand jour ce problème en manifestant et en activant, première étape vers la mise en œuvre d’un changement dans une crise qui affecte les populations du monde entier. Par rapport à d’autres juridictions, le pays est également en avance en matière de réglementation du deepfake porn. En fait, la législation est en place, avec des peines allant jusqu’à cinq ans de prison et des amendes pour les personnes reconnues coupables de création d’images dans l’intention de les distribuer. Aux États-Unis, la législation fédérale a recueilli le soutien bipartisan des législateurs, mais elle progresse encore à pas de tortue au Congrès.

La réglementation est importante, mais les cas en Corée montrent également à quel point il peut être difficile de faire respecter un problème aussi répandu, ainsi que la facilité avec laquelle ce contenu peut être créé et partagé. L’élargissement des lois pour rendre illégale la possession de ce type de matériel pourrait aider. Mais cela impose toujours une grande responsabilité aux victimes, qui doivent retracer numériquement l’auteur du contenu qui a bouleversé leur vie.

L’arrestation récente du PDG de Telegram montre qu’il existe une dynamique mondiale croissante pour tenir les entreprises technologiques responsables de leur rôle dans les préjudices causés sur leurs plateformes. C’est un pas dans la bonne direction ; à mesure que de plus en plus de régulateurs transfèrent la responsabilité à ces puissantes entreprises, davantage de solutions menées par l’industrie seraient les bienvenues. Les universités et les centres de recherche développent des outils prometteurs pour protéger les images contre les manipulations de l’IA. Mais les ressources consacrées à la mise en œuvre responsable de l’IA par l’industrie qui la crée sont insuffisantes.

Les entreprises technologiques doivent être davantage incitées à proposer des solutions proactives. De nombreux géants de la technologie ont réduit leurs effectifs d’équipes d’IA éthiques et responsables ces dernières années dans un contexte de réduction des coûts. Mais la dignité des femmes et des filles n’est pas quelque chose qui devrait être sacrifiée au profit du profit.

La Corée du Sud est actuellement l’épicentre de cette crise. Mais il s’agit d’un problème mondial qui peut avoir un impact sur tout le monde, depuis des célébrités comme Taylor Swift jusqu’à des collégiennes de Séoul jusqu’au New Jersey. Le secteur technologique ne peut pas continuer à se dérober à ses responsabilités plus longtemps.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd