Incident 1273: Des vidéos truquées du vol du Louvre, prétendument générées par une intelligence artificielle, auraient largement circulé en ligne.
Description: Après le vol de bijoux du Louvre, survenu le 19 octobre 2025, des deepfakes présumés auraient circulé massivement en ligne, prétendant représenter le braquage alors qu'ils étaient truqués. Ces vidéos auraient été publiées sur Facebook, Douyin et Rednote, et présentaient des artefacts de transformation, des objets qui disparaissent et des filigranes Sora partiels. Des analyses forensiques en intelligence artificielle et des vérifications indépendantes auraient conclu que ces scènes étaient incohérentes avec la véritable Galerie Apollo, confirmant ainsi que les images étaient fausses.
Entités
Voir toutes les entitésAlleged: OpenAI developed an AI system deployed by Unknown social media account operators, which harmed General public , General public of Hong Kong , social media users , Epistemic integrity et Media consumers.
Statistiques d'incidents
ID
1273
Nombre de rapports
1
Date de l'incident
2025-10-26
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Un audacieux vol de bijoux commis en plein jour au musée du Louvre à Paris le 19 octobre a fait la une des journaux internationaux.
Lors du vol, les malfaiteurs ont garé un camion équipé d'une échelle télescopique sous la galerie Apollo du …
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents


