Incidents associés

Le monde s'est brièvement arrêté lorsque les images d'une explosion dans les locaux du Pentagone ont commencé à faire le tour des réseaux sociaux lundi. L'image, qui a commencé à circuler sur Twitter le 22 mai, montrait une explosion sur une pelouse à l'extérieur du Pentagone.
Le message d'origine a depuis été supprimé.
Visuels d'explosion du Pentagone : Une explosion s'est-elle vraiment produite ?
Le département américain de la Défense a précisé qu'il n'y avait pas eu d'explosion dans et même à proximité des locaux du Pentagone.
Un porte-parole du ministère de la Défense a été cité comme ayant déclaré par Forbes que l'image montrant prétendument une explosion dans les locaux du Pentagone est une "désinformation". Le service d'incendie d'Arlington a rapidement tweeté qu'il n'y avait "AUCUNE explosion ou incident" sur ou à proximité de la réserve du Pentagone.
** "Aucun danger immédiat ni danger pour le public": Service d'incendie d'Arlington **
Le service d'incendie d'Arlington a précisé qu'il n'y avait "aucun danger immédiat ni danger pour le public" autour du Pentagone.
Jusqu'à présent, la source de l'image virale reste indéterminée.
Des contrefaçons profondes générées par l'IA sous les projecteurs
Les contrefaçons profondes générées par l'intelligence artificielle ont été à l'honneur pour leurs représentations réalistes de personnes et de sujets absolument réels. Ils se sont propagés sur les réseaux sociaux comme une traînée de poudre.
La prolifération de ces contrefaçons profondes a augmenté après qu'une série de technologies d'IA très puissantes, y compris ChatGPT d'OpenAI, soient devenues publiques.
Les représentations réalistes de l'IA incluent le pape François portant un manteau Balenciaga ainsi que des images virales générées par l'IA de l'ancien président Donald Trump résistant aux autorités lors d'une fausse arrestation.
L'image représentant une explosion à l'intérieur des locaux du Pentagone a également été décrite comme un deepfake.
Pendant ce temps, la semaine dernière, les mots d'avertissement liés à la réglementation de l'intelligence artificielle sont venus de nul autre que Samuel Altman, le PDG de A.I. startup du jour, ChatGPT-maker OpenAI.
Lors d'une audience au Sénat américain la semaine dernière, Altman a déclaré : "Si cette technologie tourne mal, elle peut mal tourner."
Altman a proposé la création d'une agence américaine ou mondiale qui accorderait une licence aux systèmes d'IA les plus puissants et aurait le pouvoir de "retirer cette licence et de garantir le respect des normes de sécurité".