Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6116

Incidentes Asociados

Incidente 11751 Reporte
Alleged Marine Park Orca Attack on 'Jessica Radcliffe' Reportedly an AI-Generated Hoax

Loading...
El incidente de la orca con Jessica Radcliffe es un engaño: la verdad tras la muerte se vuelve viral
ibtimes.co.uk · 2025

Un video que supuestamente muestra a una entrenadora marina llamada Jessica Radcliffe siendo asesinada por una orca se ha vuelto viral en redes sociales, provocando una alarma generalizada. Las imágenes parecen mostrar un incidente violento en un parque marino, donde una ballena ataca a una mujer durante una actuación en vivo.

Sin embargo, investigaciones de verificación de datos han confirmado que el incidente nunca ocurrió. Ningún registro oficial, noticia o fuente creíble demuestra la existencia de Radcliffe, y no hay evidencia de que tal ataque haya ocurrido. Los expertos afirman que el video es una invención generada por IA, lo que pone de relieve la velocidad con la que la desinformación puede propagarse en línea y la dificultad de corregir las narrativas falsas una vez que cobran fuerza.

No hay registro de entrenador ni ataque

La historia central del vídeo afirma que Radcliffe fue atacado por una orca durante un espectáculo ante público. Los verificadores de datos de medios como Vocal Media no encontraron ninguna mención de Radcliffe en los registros de empleo de parques marinos, bases de datos públicas ni en la cobertura periodística legítima. Las búsquedas en informes oficiales de seguridad marítima tampoco arrojaron resultados.

Los analistas que examinaron el clip identificaron voces en off generadas por IA combinadas con material de archivo no relacionado. Algunas versiones del video incluían la afirmación de que la ballena fue provocada por sangre menstrual en el agua, lo cual es un detalle sin fundamento científico ni evidencia que lo respalde, según informó The Star. Los expertos señalan que este tipo de exageraciones son comunes en historias inventadas para aumentar el impacto emocional y fomentar su difusión. Elementos Extraídos de Incidentes Reales

El bulo parece tomar elementos de incidentes reales que involucraron orcas y entrenadores. En 2010, la entrenadora de SeaWorld Dawn Brancheau falleció tras un encuentro con una orca en Florida, mientras que el entrenador español Alexis Martínez murió en 2009 en un parque marino de Tenerife. Ambos incidentes fueron ampliamente reportados y analizados en documentales como Blackfish.

Las investigaciones demuestran que las afirmaciones falsas a menudo toman elementos de eventos reales para aumentar su credibilidad. Un análisis de contenido de bulos durante la pandemia de COVID-19 (https://www.ibtimes.co.uk/topics/covid-19 "COVID-19") reveló que muchos utilizaban fuentes reales o incidentes reconocibles para parecer más plausibles. Los estudios también demuestran que incluso los lectores expertos pueden confundir bulos bien elaborados con noticias legítimas.

Esta táctica corre el riesgo de desinformar al público sobre el comportamiento de los animales marinos, diluir el debate sobre el cautiverio y causar angustia innecesaria a las familias de las víctimas reales.

Críticas sobre la respuesta en redes sociales

Las empresas de redes sociales siguen recibiendo críticas por su gestión de bulos y falsedades generadas por IA. Las investigaciones demuestran que las noticias falsas suelen difundirse mucho más ampliamente que sus contrapartes de desmitificación, lo que reduce considerablemente la eficacia de las correcciones.

Estudios psicológicos advierten además que la exposición repetida a información errónea, incluso reescrita, puede reforzar creencias falsas, un fenómeno conocido como el efecto de la "verdad ilusoria". Grupos de verificación de datos y analistas piden una moderación más rápida y un etiquetado claro del contenido generado por IA para ayudar a los usuarios a distinguir la realidad de la ficción. Cómo verificar videos virales

Según The Guardian, los expertos recomiendan varios pasos prácticos para que los espectadores evalúen la autenticidad de un video antes de compartirlo. Primero, verifiquen si varios medios de comunicación confiables han reportado el evento. Segundo, utilicen búsquedas inversas de imágenes o videos, como Google Images, para rastrear la fuente y el contexto originales. Tercero, busquen indicios de manipulación, como rostros borrosos, audio y movimientos labiales incoherentes, iluminación o sombras poco naturales y fallas visuales alrededor de la boca o la mandíbula, indicadores comunes de deepfake o material editado.

El incidente de la orca de Jessica Radcliffe es totalmente inventado, creado con herramientas de inteligencia artificial, imágenes recicladas y detalles inventados. Si bien la rápida circulación del video ha contribuido a su amplia difusión, su existencia subraya el creciente desafío de distinguir la realidad de la ficción en la era digital.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e132322