Incident 1205: Plusieurs systèmes d'IA générative auraient amplifié les fausses informations lors de la couverture de l'assassinat de Charlie Kirk.
Description: Plusieurs systèmes d'IA auraient propagé de fausses allégations après l'assassinat de Charlie Kirk à l'Université de l'Utah Valley. Les chatbots Perplexity et Grok auraient affirmé que Kirk était vivant, qualifié de satire une vidéo authentique et identifié à tort le démocrate de l'Utah Michael Mallinson comme suspect. Un aperçu de l'IA de Google aurait affirmé que Kirk figurait sur la liste des « ennemis » ukrainiens de Myrotvorets, une fausse information faisant écho aux discours pro-Kremlin.
Entités
Voir toutes les entitésAlleged: xAI , Perplexity et Google developed an AI system deployed by xAI , Perplexity , Google et Pro-Kremlin actors, which harmed General public , Grok users , Perplexity users , Google users , Michael Mallinson , Family of Charlie Kirk , Epistemic integrity , Journalistic integrity , Journalists et General public of Utah.
Statistiques d'incidents
ID
1205
Nombre de rapports
1
Date de l'incident
2025-09-11
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Contexte : De fausses allégations concernant l’assassinat du militant conservateur Charlie Kirk se propagent rapidement, le tireur étant toujours en liberté. Les utilisateurs des réseaux sociaux en quête de réponses se tournent alors vers l…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents