Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4802

Incidentes Asociados

Incidente 9531 Reporte
Deepfake Videos of Barbara O’Neill Allegedly Used in Health Scam Targeting Social Media Users

Loading...
Cuidado con el torrente de anuncios deepfake que utilizan la imagen de Barbara O’Neill, incluida una cura para los problemas de próstata
africacheck.org · 2024

EN RESUMEN: Un video que circula en las redes sociales supuestamente muestra a la “naturópata” australiana caída en desgracia Barbara O’Neill, quien respalda una cura para los problemas de próstata y la disfunción eréctil. Pero hay indicios de que el video es un deepfake que publicita múltiples estafas.

Barbara O’Neill no es ajena a los verificadores de hechos de todo el mundo, y Africa Check ha desacreditado anteriormente varias afirmaciones sobre la salud de los autodenominados verificadores de hechos. naturópata.

Los últimos videos con O’Neill aparecen en una serie de publicaciones populares de Facebook, incluida una de noviembre de 2024 que circula en Sudáfrica y que, al momento de escribir este artículo, tiene más de un millón de vistas. Su título dice: “¡La prostatitis desaparecerá para siempre! Lea el artículo”.

El video comienza con imágenes de baja resolución de O’Neill que parecen decir: “Tu erección volverá y permanecerá fuerte incluso después de los 80 años si tomas una cápsula antes de acostarte”.

Numerosos otros videos usando lo mismo audio sobre diferentes secuencias de video de O’Neill hablando fueron encontrados circulando en Nigeria, Kenia y Zimbabue.

Pero, ¿son estas verdaderas recomendaciones del controvertido australiano?

O’Neill tiene prohibido dar consejos de salud, todavía es utilizado para vender curas y suplementos

Una rápida búsqueda en Internet produce un torrente de videos de O’Neill dando charlas sobre tratamientos alternativos y causas de enfermedades. Según las autoridades sanitarias australianas, desde finales de los años 90 también ha ofrecido asesoramiento sanitario, escrito libros sobre salud y nutrición y trabajado en varios “retiros” de salud.

A O’Neill se le prohibió brindar cualquier consejo de salud en su país de origen luego de una investigación de 2018 realizada por la Comisión de Quejas de Atención Médica de Nueva Gales del Sur, que encontró que ella era una profesional no registrada y representaba "un riesgo para la salud o la seguridad de los miembros del público". Pero, según se informa, desde entonces continúa ha logrado atraer a un gran número de seguidores, incluso en línea, donde sus videos de conferencias son particularmente populares.

Desde entonces, los clips de estas conferencias se han convertido en material publicitario común en las redes sociales. A principios de 2024, Vox informó que las cuentas de TikTok estaban usando el audio de los videos de conferencias de O'Neill para vender una amplia variedad de suplementos y curas milagrosas. Estos a menudo están vagamente alineados con el espíritu de la autocuración y tienden a equiparar lo "natural" con lo saludable.

En agosto, el periódico The Guardian informó que se habían incorporado herramientas de inteligencia artificial (IA) a la mezcla, con torrentes de imitaciones de O’Neill que llevaron a la propia oradora a advertir sobre la tendencia en un videoclip publicado en YouTube. Desmentimos algunas de estas imitaciones generadas por IA en julio.

Señales de un deepfake

Los deepfakes suelen ser manipulaciones de imágenes reales para que parezca que alguien dijo o hizo algo que no hizo. Los estafadores pueden crear estos vídeos fácil y rápidamente para sacar provecho del uso de la identidad de alguien, especialmente si el realismo no es una prioridad.

Estos vídeos entran en esa categoría de deepfakes, creados rápidamente y poco realistas. El audio de los vídeos está notablemente desincronizado con los movimientos de la boca y el cuerpo del hablante, y suena poco natural o robótico en algunas partes. A veces es difícil detectar estas pistas si hay música de fondo muy alta o si las imágenes son muy granuladas o pixeladas, como es el caso de estos videos.

Pero otras señales en el contexto de las publicaciones dejan más claro que se trata de estafas. Por un lado, no han sido publicadas por O’Neill, quien también ha dicho que no tiene una página de Facebook propia. En cambio, se publican en una serie de pequeñas cuentas que no parecen estar afiliadas de ninguna manera con el orador o con una empresa de bienestar, o que pueden verse claramente en sus perfiles de Facebook como publicando múltiples anuncios en diferentes idiomas y que enlazan a una gran cantidad de sitios web diferentes.

Finalmente, como en la mayoría de las estafas de salud, las afirmaciones sensacionalistas sobre curar algo de manera rápida o fácil, o que prometen resultados milagrosos, son una gran señal de que algo es fraudulento.

Lo que quieren los estafadores

Algunos de los últimos videos aparecen como parte de múltiples anuncios de Facebook, a menudo de las mismas cuentas. Los anuncios incluyen enlaces que dirigen a los usuarios a otros sitios no relacionados, incluidas copias falsas de sitios web de salud legítimos como Mayo Clinic y Healthline. Desde estos, se invita a los usuarios a suscribirse o registrarse, probablemente como una forma de obtener información personal, en lo que se denomina una estafa de phishing.

Otros anuncios parecían estar diseñados para vender productos de forma más directa, con publicaciones similares o idénticas que enlazaban a sitios que supuestamente vendían gomitas para curar la impotencia llamadas Vital Grow XL.

Puede obtener más información sobre cómo identificar deepfakes en nuestra guía.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd