Incidents associés

Après qu'une fausse image du Pentagone en feu [est devenue virale](https://siliconangle.com/2023/05/22/stock-market-wobbles-ai-generated-image-pentagon-explosion-appears-verified-twitter- comptes/) récemment, Twitter Inc. a décidé que la plate-forme devait mieux s'armer contre une telle tromperie profonde.
L'image générée par l'intelligence artificielle a été vue par suffisamment de personnes pour bouleverser brièvement le marché boursier. Certains sites d'information ont rapporté l'incident et se sont ensuite excusés lorsqu'ils ont appris qu'il n'y avait définitivement pas eu d'explosion au Pentagone. Il a été vu et apparemment cru par beaucoup, beaucoup de gens.
Toute la débâcle témoigne de la façon dont l'IA réaliste peut créer des événements bidons et comment de tels événements peuvent, d'une certaine manière, même si ce n'est que pour une courte période, faire basculer le monde. À juste titre, on a beaucoup parlé ces dernières années du danger de la fausse technologie profonde à l'ère de la guerre de l'information. Récemment, une image du pape habillé comme une star du rap est allée viral, qui, bien qu'inoffensif, était si bien fait que l'on ne peut qu'imaginer le chaos que cette technologie va causer maintenant et dans un avenir proche.
Twitter a annoncé aujourd'hui qu'il ajoutait une nouvelle fonctionnalité qui pourrait aider. Il y a peu de chances que de telles images n'apparaissent plus jamais sur la plate-forme, mais Twitter a déclaré qu'une façon de traiter les contrefaçons profondes était d'étendre ses [Community Notes](https://help.twitter.com/en/using-twitter/community- notes). Jusqu'à présent, les notes de la communauté étaient accessibles aux membres du public - Twitter n'a aucune contribution - afin qu'ils puissent ajouter du contexte aux tweets trompeurs. Pour les utilisateurs réguliers de Twitter, la fonctionnalité a été très utile, compte tenu de tous les tweets incendiaires qui n'expliquent pas le contexte. Twitter va maintenant appliquer ce détecteur de conneries aux images.
"Des images générées par l'IA aux vidéos manipulées, il est courant de tomber sur des médias trompeurs", a expliqué la société. "Aujourd'hui, nous testons une fonctionnalité qui met un super pouvoir entre les mains des contributeurs : Notes sur les médias."
Lorsque les utilisateurs pensent qu'une image est potentiellement trompeuse, ils pourront désormais cliquer sur l'onglet "À propos de l'image". Les utilisateurs pourront alors écrire des informations supplémentaires spécifiquement liées à l'image, et ces nouvelles informations apparaîtront sous les images correspondantes envoyées sur la plateforme.
"Il est actuellement prévu de pécher par excès de précision lors de la mise en correspondance des images, ce qui signifie qu'il ne correspondra probablement pas à toutes les images qui vous ressemblent", a expliqué la société. "Nous travaillerons pour régler cela afin d'étendre la couverture tout en évitant les correspondances erronées." Il a également déclaré qu'à un moment donné, la même fonctionnalité sera disponible pour plusieurs images et vidéos. Il ne fait aucun doute que le bouton image s'usera très rapidement.