Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6100

Incidents associés

Incident 6756 Rapports
High School Athletic Director in Baltimore County Allegedly Created Racist Deepfake Audio Impersonating Principal

Loading...
Comment un principe juridique vieux d'un siècle pourrait débarrasser Internet des deepfakes
bostonglobe.com · 2025

L'année dernière, un enregistrement viral du directeur du lycée local a choqué les habitants de Pikesville, dans le Maryland.

On pouvait entendre la voix d'Eric Eiswert proférer des propos haineux et racistes à l'encontre des Juifs et des élèves noirs de l'école. Ces propos, venant d'un éducateur local respecté, étaient impensables. Les conséquences furent rapides et désastreuses. Les membres de la communauté furent indignés et le district scolaire le plaça immédiatement en congé administratif. La justice semblait avoir eu gain de cause, sauf que l'enregistrement était faux.

L'enregistrement d'Eiswert était un deepfake, c'est-à-dire une représentation d'une personne dans une image, une vidéo ou un enregistrement audio, modifiée numériquement, généralement pour la faire dire ou faire quelque chose qu'elle n'a pas dit ou fait. Une enquête menée par les forces de l'ordre a révélé que l'enregistrement deepfake avait probablement été créé par le directeur sportif mécontent du lycée.

Le cas d'Eiswert est de plus en plus fréquent. Les progrès considérables de l'IA générative ces dernières années ont facilité la création de deepfakes remarquablement réalistes. Et Internet permet à ces deepfakes générés par l'IA de se propager comme une traînée de poudre. Parmi les victimes, on compte Taylor Swift, des collégiens et des parlementaires comme Alexandria Ocasio-Cortez. En réponse à cette nouvelle menace, des dizaines d'États ont adopté de nouvelles lois et récemment, le Congrès a adopté à une écrasante majorité la loi TAKE IT DOWN, qui criminalise le partage d'images explicites sans consentement. Ces mesures, bien que bien intentionnées, ne concernent que les images sexuellement explicites, et non le type de deepfake qui a ciblé Eiswert. Pour cela, les décideurs politiques doivent adopter une vision plus large.

Heureusement, il existe un précédent juridique apparu il y a plus d'un siècle en réponse à un problème similaire : l'appareil photo portable.

À la fin du XIXe siècle, l'appareil photo portable Kodak a horrifié les Américains et les Européens. Des articles de journaux déploraient la capture de la moindre de nos erreurs sur pellicule. Des justiciers anglais ont agressé des photographes qui prenaient subrepticement des photos de femmes nageant sur les plages anglaises. Le président américain Theodore Roosevelt a interpellé un garçon qui l'avait pris en photo à la sortie de l'église, qualifiant cela de « honte ». Si la société du début du XXe siècle n'appréciait pas d'apparaître sur les photos d'autrui sans autorisation, sa plus grande préoccupation était la possibilité pour les photographes de partager leurs clichés. Le développement des médias de masse à la même époque a permis à ces images d'être partagées par des millions de personnes. En réponse à cette menace, deux éminents juristes de l'époque, Samuel Warren et le futur juge de la Cour suprême des États-Unis Louis Brandeis, proposèrent un nouveau droit : le droit à la vie privée. Dans un article de la Harvard Law Review paru en 1890, Warren et Brandeis avertissaient que, ensemble, « les photographies instantanées et l'activité journalistique ont envahi le domaine sacré de la vie privée et domestique ». Ils craignaient que la perte de contrôle sur son image ne porte atteinte non seulement à ses intérêts financiers, mais aussi à sa dignité humaine, les photos pouvant potentiellement causer « une souffrance et un stress mentaux… bien plus importants que ceux que pourraient infliger de simples blessures corporelles ».

Les intérêts décrits par Warren et Brandeis sont depuis connus sous le nom de droit à l'image. Désormais reconnu dans la plupart des États, le droit à l'image protège le nom, l'image et la ressemblance d'un individu contre toute utilisation non autorisée et préjudiciable par des tiers à leur propre profit. Il est crucial de noter que cette protection ne se limite pas aux images sexualisées, contrairement à une grande partie de la législation actuelle visant à lutter contre les deepfakes. Et elle pourrait constituer une arme précieuse contre les pires méfaits des deepfakes.

Les préoccupations de Warren et Brandeis sont d'actualité. À l'instar des appareils photo, les outils d'IA permettent à chacun de capturer l'image d'autrui. À l'instar des médias de masse antérieurs, Internet permet à des millions de personnes d'accéder à l'image. Bien sûr, la puissance et la portée de l'IA et d'Internet augmentent les risques potentiels. Alors que l'appareil photo se limitait à capturer des actions réelles, les outils d'IA nous permettent de créer des deepfakes montrant d'autres personnes agissant de manière totalement inimaginable.

Aujourd'hui, l'une des principales limites du droit à l'image dans de nombreux États est sa restriction aux utilisations commerciales de l'image d'une personne, notamment dans la publicité ou le marketing. Pourtant, Warren et Brandeis n'ont jamais souhaité que ce droit soit aussi limité. En 1890, eux et d'autres parties concernées ont également écrit sur les atteintes que les caméras pouvaient infliger à la dignité humaine.

Les législateurs et les universitaires ont remis en question cette conception limitée du droit à l'image. Par exemple, la Californie exige simplement que l'image d'une personne soit utilisée au profit d'autrui (à des fins commerciales ou autres) pour qu'une action en justice relative au droit à l'image soit recevable.

Le droit à l'image peut également offrir aux victimes un moyen de supprimer les deepfakes d'Internet. Les plateformes en ligne ne sont généralement pas responsables des actions de leurs utilisateurs, comme une publication Facebook ou un listing Amazon, car l'article 230 de la loi sur la décence des communications les protège de toute responsabilité. Malgré cet article, les plateformes peuvent néanmoins être tenues responsables des violations de propriété intellectuelle. Et les tribunaux du pays considèrent de plus en plus le droit à l'image comme un droit de propriété intellectuelle. Il serait judicieux de le faire davantage dans les affaires impliquant des deepfakes.

Les décideurs politiques peuvent aider les juges en adoptant des lois définissant le droit à l'image comme un droit de propriété intellectuelle, afin de contrer l'article 230. Dans quelques juridictions étatiques ou fédérales, les juges ont reconnu ce principe, statuant que les plateformes en ligne sont responsables si elles ne suppriment pas des contenus, tels que les deepfakes, qui détournent l'image d'une personne. Cependant, la plupart des affaires ont été réglées à l'amiable avant jugement définitif ; il est donc difficile de savoir dans quelle mesure ce principe serait appliqué, à moins que de nouvelles lois ne soient adoptées pour mieux encadrer les tribunaux et le public.

Le Congrès envisage une loi nationale qui ferait des deepfakes une violation des droits de propriété intellectuelle. Bien qu'une victime puisse toujours intenter une action en justice contre le créateur du deepfake, voire contre la plateforme en ligne, obliger les plateformes à supprimer les deepfakes pourrait offrir une solution plus efficace pour la plupart des gens.

Les deepfakes soulignent la nécessité d'un large droit à l'image. Les deepfakes sont préjudiciables à tous. Ils ont ciblé des célébrités et des personnalités politiques, mais aussi des personnes ordinaires comme Eric Eiswert. Il est temps que les législateurs luttent contre les méfaits de cette technologie – et heureusement, nous disposons déjà d'un outil pour le faire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd