Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6922

Incidentes Asociados

Incidente 13971 Reporte
Deepfakes Reportedly Impersonated David Taylor-Robinson and Other UK Health Experts to Promote Wellness Nest Supplements

Loading...
Deepfakes de IA de médicos reales que difunden desinformación sanitaria en redes sociales
theguardian.com · 2025

TikTok y otras plataformas de redes sociales están publicando videos deepfakes generados por IA de médicos cuyas palabras han sido manipuladas para vender suplementos y difundir desinformación sobre salud.

La organización de verificación de datos Full Fact ha descubierto cientos de videos de este tipo que presentan versiones falsas de médicos e influencers que dirigen a los espectadores a Wellness Nest, una empresa estadounidense de suplementos.

Todos los deepfakes incluyen imágenes reales de un experto en salud extraídas de internet. Sin embargo, las imágenes y el audio han sido reelaborados para que los oradores animen a las mujeres en la menopausia a comprar productos como probióticos y shilajit del Himalaya en el sitio web de la empresa.

Las revelaciones han generado demandas para que los gigantes de las redes sociales sean mucho más cuidadosos al publicar contenido generado por IA y eliminen con mayor rapidez el contenido que distorsiona las opiniones de personalidades prominentes.

“Esta es sin duda una nueva táctica siniestra y preocupante”, declaró Leo Benedictus, el verificador de datos que llevó a cabo la investigación, publicada por Full Fact el viernes.

Añadió que los creadores de vídeos de salud deepfake utilizan IA para que “alguien respetado o con una gran audiencia parezca estar respaldando estos suplementos para tratar diversas dolencias”.

El profesor David Taylor-Robinson, experto en desigualdades en salud de la Universidad de Liverpool, se encuentra entre aquellos cuya imagen ha sido manipulada. En agosto, se sorprendió al descubrir que TikTok albergaba 14 vídeos manipulados que supuestamente lo mostraban recomendando productos con beneficios no comprobados.

Aunque Taylor-Robinson es especialista en salud infantil, en un vídeo, su versión clonada hablaba de un supuesto efecto secundario de la menopausia llamado “pierna de termómetro”.

El falso Taylor-Robinson recomendaba a las mujeres en la menopausia visitar un sitio web llamado Wellness Nest y comprar lo que denominaba un probiótico natural con "10 extractos de plantas con respaldo científico, como cúrcuma, cimicifuga racemosa, Dim [diindolilmetano] y moringa, seleccionados específicamente para combatir los síntomas de la menopausia".

Sus colegas "a menudo informan de un sueño más profundo, menos sofocos y mañanas más brillantes en cuestión de semanas", añadió el médico deepfake.

El verdadero Taylor-Robinson descubrió que su imagen se estaba utilizando solo cuando un colega le avisó. "Al principio fue muy confuso; todo bastante surrealista", dijo. A mis hijos les pareció divertidísimo.

No me sentí profundamente violada, pero sí me irritaba cada vez más la idea de que la gente vendiera productos a costa de mi trabajo y la desinformación sobre salud que conllevaba.

Las imágenes de Taylor-Robinson utilizadas para crear los videos deepfake provienen de una charla sobre vacunación que impartió en una conferencia de Salud Pública de Inglaterra (PHE) en 2017 y de una audiencia parlamentaria sobre pobreza infantil en la que testificó en mayo de este año.

En un video engañoso, se le mostraba diciendo palabrotas y haciendo comentarios misóginos mientras hablaba sobre la menopausia.

TikTok retiró los videos seis semanas después de que Taylor-Robinson presentara una queja. "Al principio, dijeron que algunos videos infringían sus normas, pero otros no tenían problemas. Fue absurdo y extraño, porque yo salía en todos y todos eran deepfakes". Fue un rollo que los eliminaran”, dijo.

Full Fact descubrió que TikTok también difundía ocho deepfakes con declaraciones manipuladas de Duncan Selbie, exdirector ejecutivo de PHE. Al igual que Taylor-Robinson, se le mostró hablando falsamente sobre la menopausia, utilizando un video tomado del mismo evento de 2017 donde Taylor-Robinson habló.

Un video, también sobre la "pierna con termómetro", era "una imitación increíble", dijo Selbie. "Es una falsificación completa de principio a fin. No tenía gracia, en el sentido de que la gente presta atención a estas cosas".

Full Fact también encontró deepfakes similares en X, Facebook y YouTube, todos vinculados a Wellness Nest o a un medio británico vinculado llamado Wellness Nest UK. Ha publicado aparentes deepfakes de médicos de renombre como el profesor Tim Spector y otro experto en nutrición, el difunto Dr. Michael Mosley.

Wellness Nest declaró a Full Fact que los vídeos deepfakes que animaban a la gente a visitar el sitio web de la empresa no tenían ninguna afiliación con su negocio. Afirmó que nunca había utilizado contenido generado por IA, pero que no podía controlar ni supervisar a sus afiliados en todo el mundo.

Helen Morgan, portavoz de salud del Partido Liberal Demócrata, declaró: «Desde médicos falsos hasta bots que incitan al suicidio, la IA se está utilizando para aprovecharse de personas inocentes y explotar las crecientes deficiencias de nuestro sistema sanitario.

Los Demócratas Liberales exigen la erradicación de las falsificaciones de IA que se hacen pasar por profesionales médicos, y la promoción de herramientas clínicamente aprobadas para llenar ese vacío.

Si se tratara de personas que se hacen pasar fraudulentamente por médicos, se enfrentarían a un proceso penal. ¿Por qué se tolera este equivalente digital?

Cuando alguien busca asesoramiento médico de un bot de IA, debería ser derivado automáticamente al servicio de asistencia del NHS para que pueda obtener el diagnóstico y el tratamiento que realmente necesita, con responsabilidad penal para quienes se beneficien de la desinformación médica.

Un portavoz de TikTok declaró: «Hemos eliminado este contenido [relacionado con Taylor-Robinson y Selbie] por infringir nuestras normas contra la desinformación perjudicial y los comportamientos que buscan engañar a nuestra comunidad, como la suplantación de identidad».

El contenido engañoso generado por IA es un desafío para toda la industria, y seguimos invirtiendo en nuevas formas de detectar y eliminar el contenido que infringe nuestras directrices comunitarias.

Se contactó al Departamento de Salud y Asistencia Social para obtener sus comentarios.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd