Incidente 953: Vídeos deepfake de Barbara O'Neill presuntamente utilizados en una estafa de salud dirigida a usuarios de redes sociales.
Descripción: Vídeos deepfake de Barbara O'Neill, defensora australiana de la salud alternativa a la que se le ha prohibido dar consejos médicos, se han utilizado presuntamente en anuncios fraudulentos en redes sociales que promocionan tratamientos falsos. Estos incluyen tratamientos para problemas de próstata y disfunción eréctil. Estos vídeos manipulados han circulado ampliamente en países africanos. La estafa dirige a los usuarios a sitios web engañosos, posiblemente para suplantación de identidad (phishing) o fraude financiero. O'Neill ha negado su participación.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developer y Unknown voice cloning technology developer developed an AI system deployed by scammers y Scammers impersonating Barbara O'Neill, which harmed Barbara O'Neill , Individuals with health problems , Citizens of various African nations y social media users.
Sistemas de IA presuntamente implicados: Unknown deepfake app y Unknown voice cloning technology
Estadísticas de incidentes
ID
953
Cantidad de informes
1
Fecha del Incidente
2024-11-01
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes

EN RESUMEN: Un video que circula en las redes sociales supuestamente muestra a la “naturópata” australiana caída en desgracia Barbara O’Neill, quien respalda una cura para los problemas de próstata y la disfunción eréctil. Pero hay indicios…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Biased Google Image Results
· 18 informes
Defamation via AutoComplete
· 28 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Biased Google Image Results
· 18 informes
Defamation via AutoComplete
· 28 informes