Description: xAI's model Grok, intended to automate news delivery on the X platform, is reported to have struggled to provide accurate information during the attempted assassination of former President Donald Trump. Grok apparently issued incorrect headlines, including false reports about Vice President Kamala Harris being shot and misidentifying the alleged shooter. These errors show the pitfalls of relying on AI for real-time news aggregation, as it allegedly amplified unverified claims and failed to recognize sarcasm, undermining its reliability.
Editor Notes: Incident 750 is closely related to this incident. This incident focuses on Grok AI's performance in the wake of the Trump assassination attempt. Incident 750 discusses a variety of different chatbots' performances, but does not mention Grok AI, in the wake of both the Trump assassination attempt and Biden dropping out of the presidential election.
Entités
Voir toutes les entitésPrésumé : un système d'IA développé par xAI et mis en œuvre par X (Twitter) and Elon Musk, endommagé Kamala Harris , Journalism , General public and Donald Trump.
Statistiques d'incidents
ID
742
Nombre de rapports
1
Date de l'incident
2024-07-13
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
wsj.com · 2024
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.