Incidente 1205: Múltiples sistemas de IA generativa supuestamente amplifican información falsa durante la cobertura del asesinato de Charlie Kirk
Descripción: Múltiples sistemas de IA supuestamente difundieron afirmaciones falsas tras el asesinato de Charlie Kirk en la Universidad del Valle de Utah. Los chatbots de Perplexity y Grok supuestamente afirmaron que Kirk estaba vivo, tergiversaron un video auténtico como sátira e identificaron erróneamente al demócrata de Utah Michael Mallinson como sospechoso. Una descripción general de Google AI supuestamente afirmó que Kirk estaba en la lista de "enemigos" de Myrotvorets en Ucrania, una supuesta falsedad que se hacía eco de las narrativas pro-Kremlin.
Entidades
Ver todas las entidadesAlleged: xAI , Perplexity y Google developed an AI system deployed by xAI , Perplexity , Google y Pro-Kremlin actors, which harmed General public , Grok users , Perplexity users , Google users , Michael Mallinson , Family of Charlie Kirk , Epistemic integrity , Journalistic integrity , Journalists y General public of Utah.
Estadísticas de incidentes
ID
1205
Cantidad de informes
1
Fecha del Incidente
2025-09-11
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Qué sucedió: Las afirmaciones falsas en torno al asesinato del activista conservador Charlie Kirk se están extendiendo rápidamente mientras el tirador sigue prófugo, y los usuarios de redes sociales, en busca de respuestas, han recurrido a …
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents