Incidents associés

Une vidéo YouTube qui a recueilli près de 2 millions de vues et 8 000 commentaires détaille une saga de « vrais crimes » à Littleton qui « a révélé un monde caché de secrets et de mensonges secouant la ville jusqu’à ses fondations », selon la description de la vidéo.
Le seul problème ?
La « captivante histoire de vrai crime » d’un agent immobilier de Littleton assassiné par son beau-fils après avoir eu une « liaison gay secrète » est, selon toutes les apparences, une fiction complète. La vidéo de 25 minutes a probablement été créée et racontée par un programme d’intelligence artificielle générative.
« Je ne suis pas surprise de voir ce genre de chose », a déclaré Casey Fiesler, professeure associée à l’Université du Colorado à Boulder, qui étudie et enseigne l’éthique technologique, le droit et la politique d’Internet et les communautés en ligne.
Fiesler a déclaré avoir vu des contenus similaires générés par l’IA créés pour diffuser de fausses conspirations.
« Les crimes réels sont un genre tout aussi logique que les théories du complot, car les gens regardent ce genre de contenu », a déclaré Fiesler. « La motivation est l’argent. »
La chaîne YouTube True Crime Case Files diffuse depuis huit mois des contenus « crimes réels » similaires et aux thèmes comparables, tous basés sur des photos fixes plutôt que sur de véritables séquences d’actualité. Le 30 juillet, la chaîne a publié une vidéo sur Richard Engelbert, un prétendu agent immobilier qui a été tué par son beau-fils, Harrison Engelbert, dans un « meurtre macabre » en 2014.
Selon la vidéo, Harrison Engelbert a été reconnu coupable de meurtre au deuxième degré après une enquête policière et un procès devant jury, et condamné à 25 ans de prison sans possibilité de libération conditionnelle. La communauté, selon la vidéo, a été « profondément ébranlée ».
Pourtant, rien ne prouve que tout cela se soit produit. La vidéo raconte que l’affaire a fait l’objet d’une attention médiatique locale et nationale, mais les recherches sur Google ne donnent aucune information sur l’affaire de 2014. Les responsables locaux de l’application de la loi affirment n’avoir trouvé aucun dossier correspondant à l’affaire présumée. Et le Département des prisons du Colorado ne répertorie aucun détenu nommé Harrison Engelbert.
Eric Ross, directeur des relations avec les médias du bureau du procureur du 18e district judiciaire, a déclaré que l’histoire semblait avoir été inventée car aucun des noms n’apparaissait dans une recherche dans les archives judiciaires du Colorado.
Le sergent Krista Schmit du département de police de Littleton a déclaré que l’agence n’avait pas enquêté sur le crime décrit dans la vidéo, et qu’aucun des noms utilisés dans le segment ne correspond à des personnes avec lesquelles le département a interagi.
Pourtant, les commentaires sous la vidéo montrent des spectateurs exprimant leur choc, leur indignation et leur dégoût face à la nature odieuse de ce faux crime.
« La façon dont les gens croient quelque chose simplement parce qu’ils le voient sur Internet va devenir un problème de plus en plus grave », a déclaré Fiesler de CU.
Fiesler a estimé que cette vidéo aurait pu facilement générer des dizaines de milliers de dollars pour le créateur, dont les coordonnées ne sont pas répertoriées.
Lorsqu'elle a regardé la vidéo, les signaux d'alarme de l'IA lui ont immédiatement sauté aux yeux.
La narration vocale était erronée, a-t-elle déclaré. Les photos des personnes utilisées dans la vidéo - toutes des portraits de type studio - ont une apparence de « vallée étrange », a-t-elle déclaré. Les recherches d'images inversées de Google sur les photographies ne donnent pas de résultats réels.
Les faits dans la vidéo ne concordent pas non plus.
Par exemple, la narration guindée dit d'abord que le meurtre présumé a eu lieu sur Bleak Street à Littleton - une rue qui n'existe pas dans la ville - mais fait ensuite référence à la rue Oak. Le narrateur change constamment la prononciation de « Engelbert ». La vidéo dit également que la femme de Richard Engelbert, Wendy Engelbert, était directrice d'école et a dû abandonner sa campagne pour devenir « surintendante d'école », ce qui n'est pas un poste électif au Colorado.
Les autres noms utilisés dans la vidéo n’apparaissent pas dans les recherches Google : la procureure Laura Mitchell, le détective James Cattle, la voisine Luby Johnson-Guntz.
Ce que les recherches Google révèlent, ce sont des dizaines de vidéos YouTube et de TikToks contrefaits, ainsi que des pages Web résumant la fausse vidéo originale.
La création de fausses informations n’est pas nouvelle, mais avec l’avènement du contenu généré par l’IA, Fiesler a déclaré que la technologie uniformise les règles du jeu pour que davantage de personnes créent et diffusent du faux contenu.
« Ce que l’IA générative a fait, c’est en quelque sorte démocratiser ces types d’acteurs malveillants dans le sens où plus il y aura de personnes capables de créer ce type de contenu, plus nous en verrons », a déclaré Fiesler.