Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3099

Incidents associés

Incident 54317 Rapports
Purported AI-Generated Image of Explosion Near Pentagon Reportedly Triggers Brief Market Dip and Public Confusion

Loading...
Twitter va étendre son outil de vérification des faits après l'explosion du Pentagone
siliconangle.com · 2023

Après qu'une fausse image du Pentagone en feu [est devenue virale](https://siliconangle.com/2023/05/22/stock-market-wobbles-ai-generated-image-pentagon-explosion-appears-verified-twitter- comptes/) récemment, Twitter Inc. a décidé que la plate-forme devait mieux s'armer contre une telle tromperie profonde.

L'image générée par l'intelligence artificielle a été vue par suffisamment de personnes pour bouleverser brièvement le marché boursier. Certains sites d'information ont rapporté l'incident et se sont ensuite excusés lorsqu'ils ont appris qu'il n'y avait définitivement pas eu d'explosion au Pentagone. Il a été vu et apparemment cru par beaucoup, beaucoup de gens.

Toute la débâcle témoigne de la façon dont l'IA réaliste peut créer des événements bidons et comment de tels événements peuvent, d'une certaine manière, même si ce n'est que pour une courte période, faire basculer le monde. À juste titre, on a beaucoup parlé ces dernières années du danger de la fausse technologie profonde à l'ère de la guerre de l'information. Récemment, une image du pape habillé comme une star du rap est allée viral, qui, bien qu'inoffensif, était si bien fait que l'on ne peut qu'imaginer le chaos que cette technologie va causer maintenant et dans un avenir proche.

Twitter a annoncé aujourd'hui qu'il ajoutait une nouvelle fonctionnalité qui pourrait aider. Il y a peu de chances que de telles images n'apparaissent plus jamais sur la plate-forme, mais Twitter a déclaré qu'une façon de traiter les contrefaçons profondes était d'étendre ses [Community Notes](https://help.twitter.com/en/using-twitter/community- notes). Jusqu'à présent, les notes de la communauté étaient accessibles aux membres du public - Twitter n'a aucune contribution - afin qu'ils puissent ajouter du contexte aux tweets trompeurs. Pour les utilisateurs réguliers de Twitter, la fonctionnalité a été très utile, compte tenu de tous les tweets incendiaires qui n'expliquent pas le contexte. Twitter va maintenant appliquer ce détecteur de conneries aux images.

"Des images générées par l'IA aux vidéos manipulées, il est courant de tomber sur des médias trompeurs", a expliqué la société. "Aujourd'hui, nous testons une fonctionnalité qui met un super pouvoir entre les mains des contributeurs : Notes sur les médias."

Lorsque les utilisateurs pensent qu'une image est potentiellement trompeuse, ils pourront désormais cliquer sur l'onglet "À propos de l'image". Les utilisateurs pourront alors écrire des informations supplémentaires spécifiquement liées à l'image, et ces nouvelles informations apparaîtront sous les images correspondantes envoyées sur la plateforme.

"Il est actuellement prévu de pécher par excès de précision lors de la mise en correspondance des images, ce qui signifie qu'il ne correspondra probablement pas à toutes les images qui vous ressemblent", a expliqué la société. "Nous travaillerons pour régler cela afin d'étendre la couverture tout en évitant les correspondances erronées." Il a également déclaré qu'à un moment donné, la même fonctionnalité sera disponible pour plusieurs images et vidéos. Il ne fait aucun doute que le bouton image s'usera très rapidement.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd