Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2308

Loading...
Le m�étaverse de Facebook pourrait être envahi par des contrefaçons profondes et d'autres informations erronées si ces organisations à but non lucratif ne réussissent pas
forbes.com · 2022

L'univers de réalité virtuelle de Mark Zuckerberg, surnommé simplement Meta, a été en proie à un certain nombre de problèmes allant de problèmes technologiques à une difficulté à retenir le personnel. Cela ne signifie pas qu'il ne sera pas bientôt utilisé par des milliards de personnes. Le dernier problème auquel Meta est confronté est de savoir si l'environnement virtuel, où les utilisateurs peuvent concevoir leurs propres visages, sera le même pour tout le monde, ou si les entreprises, les politiciens et autres auront plus de flexibilité pour changer qui ils semblent être.

Rand Waltzman, informaticien senior au RAND Institute, un organisme de recherche à but non lucratif, a publié la semaine dernière un [avertissement](https://www.rand.org/blog/2022/08/facebook-misinformation-is-bad-enough- the-metaverse.html) que les leçons apprises par Facebook dans la personnalisation des flux d'actualités et l'autorisation d'informations hyper ciblées pourraient être suralimentées dans son Meta, où même les orateurs pourraient être personnalisés pour les rendre plus dignes de confiance pour chaque membre du public. En utilisant la technologie deepfake qui crée des vidéos réalistes mais falsifiées, un haut-parleur pourrait être modifié pour avoir 40% des fonctionnalités du membre du public sans même que le membre du public le sache.

Meta a pris des mesures pour résoudre le problème, mais d'autres entreprises n'attendent pas. Il y a deux ans, le New York Times, la BBC, CBC Radio Canada et Microsoft ont lancé Project Origin pour créer une technologie qui prouve qu'un message provient bien de la source dont il est censé provenir. À son tour, Project Origin fait désormais partie de la Coalition for Content Provenance and Authenticity, avec Adobe, Intel, Sony et Twitter. Certaines des premières versions de ce logiciel qui retracent la provenance des informations en ligne existent déjà, la seule question est de savoir qui l'utilisera ?

« Nous pouvons offrir des informations détaillées pour valider la source d'information qu'ils reçoivent », déclare Bruce MacCormack, conseiller principal des initiatives de défense contre la désinformation à CBC Radio-Canada et codirecteur du projet Origin. "Facebook doit décider de le consommer et de l'utiliser pour son système, et de comprendre comment il alimente ses algorithmes et ses systèmes, sur lesquels nous n'avons aucune visibilité."

Lancé en 2020, Project Origin développe un logiciel qui permet aux membres du public de vérifier si les informations qui prétendent provenir d'une source d'information fiable en proviennent réellement, et de prouver que les informations sont arrivées sous la même forme qu'elles ont été envoyées. En d'autres termes, pas de manipulation. Au lieu de s'appuyer sur la blockchain ou une autre technologie de grand livre distribué pour suivre le mouvement des informations en ligne, comme cela pourrait être possible dans les futures versions du soi-disant Web3, la technologie étiquette les informations avec des données sur leur origine qui se déplacent avec elles au fur et à mesure qu'elles sont copiées. et se répandre. Une première version du logiciel a été publiée cette année et est maintenant utilisée par un certain nombre de membres, dit-il.

Mais les problèmes de désinformation auxquels Meta est confronté sont plus importants que les fausses nouvelles. Afin de réduire les chevauchements entre les solutions de Project Origin et d'autres technologies similaires ciblant différents types de tromperie - et de garantir l'interopérabilité des solutions - l'organisation à but non lucratif a co-lancé la Coalition for Content Provenance and Authenticity, en février 2021, pour prouver l'originalité de plusieurs types de propriété intellectuelle. De même, Blockchain 50 lister Adobe gère la Content Authenticity Initiative, qui en Octobre 2021 a annoncé un projet visant à prouver que les NFT créés à l'aide de son logiciel étaient en fait créés par l'artiste répertorié.

« Il y a environ un an et demi, nous avons décidé que nous avions vraiment la même approche et que nous travaillions dans la même direction », déclare MacCormack. « Nous voulions nous assurer de nous retrouver au même endroit. Et nous n'avons pas construit deux ensembles de technologies concurrents.

Meta connaît les deep fakes et la méfiance à l'égard des informations sur sa plateforme est un problème. En septembre 2016, Facebook a co-lancé le Partnership on AI, que MacCormack conseille, avec Google, Amazon.com, Microsoft et IBM, pour garantir les meilleures pratiques de la technologie utilisée pour créer des contrefaçons profondes et plus encore. En juin 2020, le réseau social publiait les résultats de son Deep Fake Detection Challenge, montrant que le meilleur logiciel de détection de faux n'a réussi qu'à 65 %.

Résoudre le problème n'est pas seulement une question morale, mais aura un impact sur les résultats d'un nombre croissant d'entreprises. Un [rapport] de juin(https://www.mckinsey.com/~/media/mckinsey/business%20functions/marketing%20and%20sales/our%20insights/value%20creation%20in%20the%20metaverse/Value-creation- in-the-metaverse.pdf) par le cabinet de recherche McKinsey a constaté que les investissements dans le métaverse au premier semestre 2022 avaient déjà doublé par rapport à l'année précédente et prédit que l'industrie vaudrait 5 000 milliards de dollars d'ici 2030. Un métaverse plein de fausses informations pourrait facilement transformer cela boom dans un buste.

MacCormack affirme que le logiciel deep fake s'améliore à un rythme plus rapide que le temps qu'il faut pour mettre en œuvre un logiciel de détection, l'une des raisons pour lesquelles ils ont décidé de se concentrer sur la capacité de prouver que les informations provenaient d'où elles étaient censées provenir. "Si vous mettez les outils de détection dans la nature, juste par la nature du fonctionnement de l'intelligence artificielle, ils vont améliorer les contrefaçons. Et ils allaient améliorer les choses très rapidement, au point que le cycle de vie d'un outil ou la durée de vie d'un outil serait inférieur au temps qu'il faudrait pour déployer l'outil, ce qui signifiait qu'effectivement, vous ne pourriez jamais l'intégrer. la place du marché."

Le problème ne fera qu'empirer, selon MacCormack. La semaine dernière, un concurrent parvenu au logiciel Dall-E de Sam Altman, appelé Stable Diffusion, qui permet aux utilisateurs de créer des images réalistes simplement en les décrivant, a ouvert son code source à tout le monde. Selon MacCormack, cela signifie que ce n'est qu'une question de temps avant que les garanties mises en place par OpenAI pour empêcher la création de certains types de contenu ne soient contournées.

« C'est un peu comme la non-prolifération nucléaire », dit MacCormack. « Une fois que c'est là-bas, c'est là-bas. Ainsi, le fait que ce code ait été publié sans garanties signifie qu'il y a une anticipation que le nombre de cas d'utilisation malveillants commencera à s'accélérer de façon spectaculaire dans les deux prochains mois.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd