Incidente 1330: El engaño sobre la desaparición de Eric Langford, un boy scout generado por inteligencia artificial, circula en múltiples plataformas de redes sociales.
Descripción: Una historia ficticia, supuestamente generada por IA, afirmaba falsamente que un boy scout llamado Eric Langford desapareció en Nueva York en 1989 y reapareció en 2001 tras ser secuestrado. El supuesto bulo se originó en el canal de YouTube UNKNOWN Files y se reeditó en vídeos virales de TikTok y entradas de blog generadas por IA, promocionadas en Facebook, engañando a millones de espectadores y buscadores sobre un caso inventado de desaparición.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developers , Unknown image generator developers y Unknown generative AI developers developed an AI system deployed by UNKNOWN Files, which harmed Epistemic integrity , social media users , YouTube users , TikTok users y Facebook users.
Sistemas de IA presuntamente implicados: Unknown deepfake technology , Unknown image generator technology y Unknown generative AI systems
Estadísticas de incidentes
ID
1330
Cantidad de informes
1
Fecha del Incidente
2025-12-13
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Afirmación:
Un niño explorador de 14 años llamado Eric Langford desapareció en las montañas Adirondack de Nueva York en 1989, fue declarado muerto y reapareció milagrosamente en 2001.
Calificación: [

Falso
Acerca de esta calificación
](htt…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

