Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6116

Incidents associés

Incident 11751 Rapport
Alleged Marine Park Orca Attack on 'Jessica Radcliffe' Reportedly an AI-Generated Hoax

Loading...
L'incident de l'orque de Jessica Radcliffe est un canular : la vérité derrière la mort d'une vidéo devient virale
ibtimes.co.uk · 2025

Une vidéo prétendant montrer une dresseuse de poissons marins nommée Jessica Radcliffe tuée par une orque est devenue virale sur les réseaux sociaux, suscitant une vive inquiétude. La vidéo semble illustrer un violent incident dans un parc marin, où une baleine attaque une femme lors d'un spectacle.

Cependant, des vérifications des faits ont confirmé que l'événement n'a jamais eu lieu. Aucun document officiel, aucun reportage ni aucune source crédible ne prouve l'existence de Radcliffe, et rien ne prouve qu'une telle attaque ait eu lieu. Les experts affirment que la vidéo est une invention générée par l'IA, ce qui souligne la rapidité avec laquelle la désinformation peut se propager en ligne et la difficulté de corriger les fausses informations une fois qu'elles ont pris de l'ampleur.

Aucune trace de dresseur ni d'attaque

L'histoire au cœur de la vidéo affirme Radcliffe a été attaqué par une orque lors d'un spectacle devant un public. Les vérificateurs de faits de médias, dont Vocal Media, n'ont trouvé aucune mention de [Radcliffe](https://www.ibtimes.co.uk/nicholas-hoult-hints-joining-hbos-harry-potter-series-after-losing-original-film-role-1737167 « Nicholas Hoult laisse entendre qu'il rejoint la série « Harry Potter » de HBO après avoir perdu son rôle dans un film original ») dans les registres d'emploi des parcs marins, les bases de données publiques ou les articles de presse officiels. Les recherches dans les rapports officiels de sécurité maritime n'ont également donné aucun résultat.

Les analystes qui ont examiné le clip ont identifié des voix off générées par l'IA combinées à des images d'archives sans rapport. Certaines versions de la vidéo affirmaient que la baleine avait été provoquée par du sang menstruel dans l'eau, ce qui est un détail dénué de fondement scientifique et de preuves, a rapporté The Star. Les experts soulignent que de telles embellissements sont courants dans les histoires inventées pour renforcer l'impact émotionnel et encourager le partage. Éléments tirés d'incidents réels

Ce canular semble s'inspirer d'incidents réels impliquant des orques et des dresseurs. En 2010, Dawn Brancheau, dresseuse de SeaWorld, est décédée après une rencontre avec une orque en Floride, tandis qu'Alexis Martínez, dresseur espagnol, a été tué en 2009 dans un parc marin de Tenerife. Ces deux incidents ont été largement relayés et analysés dans des documentaires tels que Blackfish.

Des recherches montrent que les fausses déclarations s'inspirent souvent d'événements réels pour renforcer leur crédibilité. Une analyse de contenu des canulars diffusés pendant la pandémie de COVID-19 a révélé que nombre d'entre eux utilisaient des sources réelles ou des incidents identifiables pour paraître plus plausibles. Des études montrent également que même des lecteurs avertis peuvent confondre des canulars bien construits avec des informations légitimes.

Cette tactique risque de désinformer le public sur le comportement des animaux marins, de diluer le débat sur la captivité et de causer une détresse inutile aux familles des victimes.

Critiques concernant la réaction des médias sociaux

Les réseaux sociaux continuent d'être critiqués pour leur gestion des canulars et des faussetés générées par l'IA. Des recherches montrent que les fausses nouvelles se propagent souvent beaucoup plus largement que leurs homologues démystifiantes, ce qui rend les corrections nettement moins efficaces.

Des études psychologiques mettent également en garde contre le fait qu'une exposition répétée à la désinformation, même réécrite, peut renforcer les fausses croyances, un phénomène connu sous le nom d'effet de « vérité illusoire ». Des groupes de vérification des faits et des analystes appellent à une modération plus rapide et à un étiquetage clair des contenus générés par l'IA afin d'aider les utilisateurs à distinguer les faits de la fiction.

Comment vérifier les vidéos virales

Selon The Guardian, les experts recommandent plusieurs étapes pratiques aux utilisateurs pour évaluer l'authenticité d'une vidéo avant de la partager. Premièrement, vérifiez si plusieurs médias réputés ont rapporté l'événement. Deuxièmement, utilisez des recherches d'images ou de vidéos inversées, comme Google Images, pour retrouver la source et le contexte d'origine. Troisièmement, recherchez des signes de manipulation, notamment des visages flous, des sons et des mouvements des lèvres incompatibles, un éclairage ou des ombres artificiels, et des défauts visuels autour de la bouche ou de la mâchoire, qui sont des indicateurs courants de deepfakes ou de séquences montées.

L'incident de l'orque Jessica Radcliffe est entièrement inventé, créé à l'aide d'outils d'IA, d'images recyclées et de détails inventés. Si la diffusion rapide de la vidéo a contribué à sa large diffusion, son existence souligne la difficulté croissante de distinguer les faits de la fiction à l'ère numérique.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e132322