Problème 2555

La technologie Deepfake - un logiciel qui permet aux gens d'échanger des visages, des voix et d'autres caractéristiques pour créer des contrefaçons numériques - a été utilisée ces dernières années pour créer un substitut synthétique d'Elon Musk qui a shillé une [arnaque à la crypto-monnaie] (https://twitter.com/ elonmusk/status/1529484675269414912?s=46&t=ncIlhkdtfcBoxv4hnv8_7Q), à digitally "se déshabiller" plus de 0 à [femmes] voler des millions de dollars] (https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/?sh =23c527197559) des entreprises en imitant la voix de leurs dirigeants au téléphone.
Dans la plupart des régions du monde, les autorités ne peuvent pas y faire grand-chose. Alors même que le logiciel devient de plus en plus sophistiqué et accessible, peu de lois existent pour gérer sa propagation.
La Chine espère être l'exception. Ce mois-ci, le pays a adopté des règles étendues exigeant que le matériel manipulé ait le consentement du sujet et porte des signatures numériques ou des filigranes, et que les fournisseurs de services deepfake proposent des moyens de « réfuter les rumeurs ».
Mais la Chine est confrontée aux mêmes obstacles qui ont entravé d'autres efforts pour régir les deepfakes : les pires abuseurs de la technologie ont tendance à être les plus difficiles à attraper, opérant de manière anonyme, s'adaptant rapidement et partageant leurs créations synthétiques via des plateformes en ligne sans frontières. La décision de la Chine a également mis en évidence une autre raison pour laquelle peu de pays ont adopté des règles : beaucoup de gens craignent que le gouvernement puisse utiliser les règles pour restreindre la liberté d'expression.
Mais simplement en allant de l'avant avec ses mandats, ont déclaré des experts en technologie, Pékin pourrait influencer la façon dont les autres gouvernements traitent l'apprentissage automatique et l'intelligence artificielle qui alimentent la technologie deepfake. Avec un précédent limité dans le domaine, les législateurs du monde entier recherchent des cas types à imiter ou à rejeter.
"L'I.A. La scène est un endroit intéressant pour la politique mondiale, car les pays se font concurrence pour savoir qui va donner le ton », a déclaré Ravit Dotan, chercheur postdoctoral qui dirige le Collaborative A.I. Laboratoire de responsabilité à l'Université de Pittsburgh. "Nous savons que des lois arrivent, mais nous ne savons pas encore ce qu'elles sont, donc il y a beaucoup d'imprévisibilité."
Les deepfakes sont très prometteurs dans de nombreux secteurs. L'année dernière, la police néerlandaise a relancé une affaire froide de 2003 en créant un avatar numérique de la victime de meurtre de 13 ans et en publiant des images de lui marchant à travers un groupe de sa famille et de ses amis de nos jours. La technologie est également utilisée pour la parodie et la satire, pour les acheteurs en ligne qui essaient des vêtements dans des cabines d'essayage virtuelles, pour des dioramas de musées dynamiques et pour les acteurs qui espèrent parler plusieurs langues dans les sorties de films internationales. Des chercheurs du M.I.T. Media Lab et l'UNICEF ont utilisé des techniques similaires pour étudier l'empathie en transformant des images de villes nord-américaines et européennes en paysages marqués par la bataille causés par la guerre de Syrie.
Mais les applications problématiques sont également nombreuses. Les experts juridiques craignent que les deepfakes ne soient utilisés à mauvais escient pour éroder la confiance dans les vidéos de surveillance, les caméras corporelles et d'autres preuves. (Un enregistrement trafiqué soumis chez un enfant britannique l'affaire de garde à vue en 2019 semblait montrer un parent proférant des menaces violentes, selon l'avocat du parent.) Les contrefaçons numériques pourraient discréditer ou inciter à la violence contre les policiers, ou les envoyer à la chasse aux oies sauvages. Le Department of Homeland Security a également identifié des risques tels que la cyberintimidation, le chantage, la manipulation des stocks et l'instabilité politique.
Certains experts prédisent que jusqu'à 90 % du contenu en ligne pourrait être généré synthétiquement d'ici quelques années.
Le volume croissant de deepfakes pourrait conduire à une situation où « les citoyens n'ont plus de réalité partagée, ou pourrait créer une confusion sociétale sur les sources d'information fiables ; une situation parfois appelée « apocalypse de l'information » ou « apathie de la réalité » », l'agence européenne d'application de la loi Europol [a écrit dans un rapport] (https://www.europol.europa.eu/cms/sites/default/files/ documents/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf) l'année dernière.
L'année dernière, des responsables britanniques ont cité des menaces, comme un site Web qui "déshabille virtuellement les femmes" et qui a été visité 38 millions de fois au cours des huit premiers mois de 2021. Mais là et dans [l'Union européenne](https: //artificialintelligenceact.eu/), les propositions visant à mettre en place des garde-fous pour la technologie n'ont pas encore force de loi.
Les tentatives aux États-Unis de créer un groupe de travail fédéral pour examiner la technologie deepfake sont au point mort. La représentante Yvette D. Clarke, une démocrate de New York, a proposé un projet de loi en 2019 et à nouveau en 2021 – la loi sur la défense de chaque personne contre les fausses apparences en maintenant l'exploitation sous réserve de la responsabilité – qui n'a pas encore été votée. Elle a dit qu'elle prévoyait de réintroduire le projet de loi cette année.
Mme Clarke a déclaré que son projet de loi, qui exigerait que les deepfakes portent des filigranes ou des étiquettes d'identification, était "une mesure de protection". En revanche, elle a décrit les nouvelles règles chinoises comme "plus un mécanisme de contrôle".
"Beaucoup de sociétés civiles sophistiquées reconnaissent à quel point cela peut être militarisé et destructeur", a-t-elle déclaré, ajoutant que les États-Unis devraient être plus audacieux dans l'établissement de leurs propres normes plutôt que de suivre un autre leader.
"Nous ne voulons pas du tout que les Chinois mangent notre déjeuner dans l'espace technologique", a déclaré Mme Clarke. "Nous voulons être en mesure de définir la base de nos attentes concernant l'industrie technologique, autour de la protection des consommateurs dans cet espace."
Mais les responsables de l'application des lois ont déclaré que l'industrie est toujours incapable de détecter les deepfakes et a du mal à gérer les utilisations malveillantes de la technologie. Un avocat de Californie a écrit dans une revue juridique en 2021 que certaines règles deepfake avaient "un problème de faisabilité presque insurmontable" et étaient « fonctionnellement inapplicable » car les agresseurs (généralement anonymes) peuvent facilement brouiller les pistes.
Les règles qui existent aux États-Unis visent en grande partie les deepfakes politiques ou pornographiques. Marc Berman, un démocrate à l'Assemblée de l'État de Californie qui représente des parties de la Silicon Valley et a parrainé une telle législation, a déclaré qu'il n'était au courant d'aucun effort pour faire appliquer ses lois par le biais de poursuites ou d'amendes. Mais il a déclaré que, par respect pour l'une de ses lois, une application de deepfake avait supprimé la possibilité d'imiter le président Donald J. Trump avant les élections de 2020.
Seuls quelques autres États, dont New York, restreignent la pornographie deepfake. Alors qu'il se présentait pour sa réélection en 2019, le maire de Houston a déclaré qu'une annonce critique d'un autre candidat [avait enfreint une loi du Texas](https://www.fox26houston.com/news/mayor-turner-calls-for-criminal-investigation- of-tony-buzbees-attack-ad) qui interdit certains deepfakes politiques trompeurs.
"La moitié de la valeur rend plus de gens un peu plus sceptiques quant à ce qu'ils voient sur les plateformes de médias sociaux et encourage les gens à ne pas tout prendre pour argent comptant", a déclaré M. Berman.
Mais même si les experts en technologie, les législateurs et les victimes appellent à des protections plus fortes, ils appellent également à la prudence. Les lois Deepfake, ont-ils dit, risquent d'être à la fois exagérées mais aussi édentées. Forcer des étiquettes ou des clauses de non-responsabilité sur des deepfakes conçus comme des commentaires valables sur la politique ou la culture pourrait également rendre le contenu moins fiable, ont-ils ajouté.
Des groupes de défense des droits num ériques tels que l'Electronic Frontier Foundation poussent les législateurs à abandonner le deepfake maintien de l'ordre aux entreprises technologiques, ou à utiliser un cadre juridique existant qui traite des problèmes tels que la fraude, la violation du droit d'auteur, l'obscénité et la diffamation.
"C'est le meilleur remède contre les préjudices, plutôt que l'ingérence gouvernementale, qui, dans sa mise en œuvre, va presque toujours capturer du matériel qui n'est pas nuisible, qui refroidit les gens d'un discours légitime et productif", a déclaré David Greene, avocat des libertés civiles pour le Fondation Frontière électronique.
Il y a plusieurs mois, Google a commencé à interdire aux gens d'utiliser sa plate-forme Colaboratory, un outil d'analyse de données, pour former A.I. systèmes pour générer des deepfakes. À l'automne, la société à l'origine de Stable Diffusion, un outil de génération d'images, a lancé une mise à jour qui paralysait les utilisateurs essayant de créer du contenu nu et pornographique, [selon The Verge](https://www.theverge.com/2022/11 /24/23476622/ai-image-generator-stable-diffusion-version-2-nsfw-artists-data-changes). Meta, TikTok, YouTube et Reddit interdisent les deepfakes censés être trompeurs .
Mais les lois ou les interdictions peuvent avoir du mal à contenir une technologie conçue pour s'adapter et s'améliorer en permanence. L'année dernière, des chercheurs de la RAND Corporation ont démontré à quel point les deepfakes peuvent être difficiles à identifier lorsqu'ils ont montré une série de vidéos à plus de 3 000 sujets de test et leur ont demandé d'identifier celles qui ont été manipulées (comme un deepfake de l'activiste climatique Greta Thunberg d ésavouer l'existence du changement climatique).
Le groupe avait tort plus d'un tiers du temps. Même un sous-ensemble de plusieurs dizaines d'étudiants qui étudient l'apprentissage automatique à l'Université Carnegie Mellon se sont trompés plus de 20 % du temps.
Des initiatives d'entreprises telles que Microsoft et Adobe tentent désormais d'authentifier les médias et de former la technologie de modération pour reconnaître les incohérences qui marquent le contenu synthétique. Mais ils luttent constamment pour dépasser les créateurs de deepfake qui découvrent souvent de nouvelles façons de corriger les défauts, de supprimer les filigranes et de modifier les métadonnées pour couvrir leurs traces.
"Il y a une course aux armements technologiques entre les créateurs de deepfake et les détecteurs de deepfake", a déclaré Jared Mondschein, physicien à RAND. "Jusqu'à ce que nous commencions à trouver des moyens de mieux détecter les deepfakes, il sera très difficile pour toute législation d'avoir du mordant."