Incidents associés
Des images sexuellement explicites de Taylor Swift générées par l'IA ont circulé sur X (anciennement Twitter) au cours des derniers jours, dernier exemple de la prolifération de [fausse pornographie générée par l'IA](https://www.theverge.com/2023/ 11/6/23948366/sextortion-is-increasing-amid-rise-in-ai-generated-nudes) et le défi de l'empêcher de se propager.
L'un des exemples les plus marquants sur X a attiré plus de 45 millions de vues, 24 000 republications et des centaines de milliers de likes et de favoris avant que l'utilisateur vérifié qui a partagé les images ne voie son compte suspendu pour violation de la politique de la plateforme. La publication était en ligne sur la plateforme pendant environ 17 heures avant sa suppression.
Mais alors que les utilisateurs commençaient à discuter de la publication virale, les images ont commencé à se propager et à être republiées sur d'autres comptes. Beaucoup d’entre eux sont encore en activité, et un déluge de nouveaux contrefaçons graphiques sont apparus depuis. Dans certaines régions, le terme « Taylor Swift AI » est devenu un sujet tendance, faisant la promotion des images auprès d'un public plus large.
Un rapport de 404 Media a révélé que les images peuvent provenir d'un groupe sur Telegram, où les utilisateurs partagent des informations explicites sur l'IA. images générées de femmes souvent réalisées avec Microsoft Designer. Les utilisateurs du groupe auraient plaisanté sur la façon dont les images de Swift sont devenues virales sur X.
Les fans de Swift spamment la plateforme pour dissimuler les contrefaçons explicites
X politiques concernant les médias synthétiques et manipulés et [nudité non consensuelle](https://help.twitter.com/en/ Rules-and-policies/intimate-media) interdisent tous deux explicitement que ce type de contenu soit hébergé sur la plateforme. X, les représentants de Swift et la NFL n'ont pas répondu à nos demandes de commentaires.
La base de fans de Swift a critiqué X pour avoir permis à de nombreux messages de rester en ligne aussi longtemps qu'ils l'ont été. En réponse, les fans ont réagi en inondant les hashtags utilisés pour faire circuler les images avec des messages qui font plutôt la promotion de vrais clips de Swift en train de jouer pour cacher les contrefaçons explicites.
L’incident témoigne du défi très réel que représente l’arrêt du porno deepfake et des images de personnes réelles générées par l’IA. Certains générateurs d'images d'IA ont mis en place des restrictions qui [empêchent les images nues, pornographiques et photoréalistes de célébrités](https://www.theverge.com/2022/11/24/23476622/ai-image-generator-stable-diffusion- version-2-nsfw-artists-data-changes) d'être produit, mais beaucoup d'autres n'offrent pas explicitement un tel service. La responsabilité d'empêcher la propagation de fausses images incombe souvent aux plateformes sociales, ce qui peut être difficile à faire dans le meilleur des cas et encore plus difficile pour une entreprise comme X qui a vidé ses capacités de modération.
L'entreprise fait actuellement l'objet d'une enquête de la part de l'UE concernant des allégations selon lesquelles elle serait utilisée pour « [diffuser des contenus illégaux et de la désinformation](https://www.theverge.com/2023/10/12/23914862/eu-x-elon-musk -européenne-commission-probe-dsa-digital-services-act-hamas-israel) » et aurait été interrogé sur ses protocoles de crise après que des informations erronées sur la guerre entre Israël et le Hamas aient été diffusées sur la plateforme.
Mise à jour le 25 janvier à 13 h 06 HE : Ajout des résultats de 404 Media_._