Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5017

Incidents associés

Incident 10042 Rapports
San Francisco City Attorney Sues Operators of AI Deepfake Pornography Websites for Violations of State and Federal Law

Loading...
Le procureur de la ville poursuit les sites Web les plus visités qui créent de la pornographie deepfake non consensuelle
sfcityattorney.org · 2024
Les images explicites non consensuelles de vrais adultes et mineurs générées par l'IA causent des dommages incommensurables et violent les lois fédérales et étatiques

SAN FRANCISCO (15 août 2024) --- Le procureur de la ville de San Francisco, David Chiu, a annoncé aujourd'hui une action en justice inédite contre certains des plus grands sites web au monde qui créent et diffusent de la pornographie non consensuelle générée par l'IA. La prolifération d'images pornographiques deepfake non consensuelles a exploité de vraies femmes et filles à travers le monde. La plainte, déposée contre les propriétaires de 16 des sites web les plus visités qui invitent les utilisateurs à créer des images nues non consensuelles de femmes et de filles, allègue que les propriétaires et les exploitants de ces sites violent les lois fédérales et étatiques interdisant la pornographie deepfake, la pornographie vengeresse et la pédopornographie.

« Cette enquête nous a conduits dans les recoins les plus sombres d'Internet, et je suis profondément horrifié pour les femmes et les filles qui ont dû subir cette exploitation », a déclaré le procureur de la ville, David Chiu. L'IA générative est extrêmement prometteuse, mais comme toute nouvelle technologie, elle peut avoir des conséquences imprévues et être exploitée par des criminels. Il est clair qu'il ne s'agit pas d'innovation, mais d'abus sexuels. Il s'agit d'un problème majeur et multiforme que nous, en tant que société, devons résoudre au plus vite. Nous devons tous contribuer à lutter contre les acteurs malveillants qui utilisent l'IA pour exploiter et abuser de personnes réelles, y compris des enfants.

Contexte

La disponibilité de modèles d'IA gratuits, sophistiqués et open source a permis aux acteurs malveillants d'exploiter, de perfectionner et de développer ces modèles à leurs propres fins. Ils ont désormais entraîné des modèles de génération d'images d'IA sur des images pornographiques et des contenus d'abus sexuels sur mineurs, afin de générer des images nues de femmes et de filles réelles et identifiables sans leur consentement.

Ce phénomène inquiétant a eu des répercussions sur les femmes et les filles en Californie et au-delà, causant des dommages incommensurables à tous, de Taylor Swift aux célébrités hollywoodiennes, en passant par les lycéens et les collégiens. Par exemple, en février 2024, des images de nus non consensuels de 16 élèves de quatrième, générées par l'IA, ont circulé parmi les élèves d'un collège californien.

Ces images, pratiquement impossibles à distinguer de vraies photographies, sont utilisées pour extorquer, intimider, menacer et humilier les femmes et les filles. Le FBI a également mis en garde contre une recrudescence des opérations d'extorsion utilisant de la pornographie non consensuelle générée par l'IA. Pire encore, les victimes de deepfakes pornographiques non consensuels n'ont pratiquement aucun recours ni aucune possibilité de contrôler leur propre image après la diffusion de ces images.

Les accusés possèdent et exploitent 16 sites web parmi les plus visités au monde, proposant de « déshabiller » des images de femmes et de filles. Ces sites web offrent des interfaces conviviales permettant de télécharger des images habillées de personnes réelles afin de générer des versions pornographiques réalistes de ces images. Ces sites web exigent des utilisateurs qu'ils s'abonnent ou paient pour générer des images nues, tirant profit d'images pornographiques non consensuelles d'enfants et d'adultes. Au total, ces sites web ont été visités plus de 200 millions de fois au cours des six premiers mois de 2024.

Certains sites web permettent aux utilisateurs de créer des images pornographiques non consensuelles d'adultes uniquement, tandis que d'autres permettent de créer des images pornographiques non consensuelles d'enfants.

Le site web d'un défendeur met en avant le caractère non consensuel des images, déclarant : « Imaginez perdre du temps à l'inviter à des rendez-vous, alors que vous pouvez simplement utiliser [site web] pour obtenir ses photos nues. »

La plainte, déposée au nom du peuple de l'État de Californie, allègue des violations des lois étatiques et fédérales interdisant la pornographie deepfake, la pornographie de vengeance et la pornographie infantile, ainsi que des violations de la loi californienne sur la concurrence déloyale. Le peuple demande la suppression des sites web des défendeurs ainsi qu'une injonction pour empêcher définitivement les défendeurs de se livrer à cette activité illégale. La plainte vise également à obtenir des sanctions civiles et les dépens pour l'action en justice.

L'affaire est People of the State of California v. Sol Ecom, Inc, et al., Cour supérieure de San Francisco. Une version expurgée de la plainte est disponible ici.

Conseils

Toute personne ayant été victime de pornographie deepfake non consensuelle ou disposant d'informations pertinentes est invitée à contacter le bureau du procureur de la ville via son portail web de plaintes des consommateurs ou sa ligne d'assistance téléphonique au (415) 554-3977.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd