Incident 742: Le modèle d'IA Grok ne parviendrait pas à produire des informations fiables suite à la tentative d'assassinat de Trump
Description: Le modèle Grok de xAI, destiné à automatiser la diffusion des informations sur la plateforme X, aurait eu du mal à fournir des informations précises lors de la tentative d'assassinat de l'ancien président Donald Trump. Grok aurait publié des titres erronés, notamment de fausses informations sur la fusillade de la vice-présidente Kamala Harris et une identification erronée du tireur présumé. Ces erreurs illustrent les dangers de l'agrégation d'informations en temps réel par l'IA, qui aurait amplifié des affirmations non vérifiées et ignoré le sarcasme, compromettant ainsi sa fiabilité.
Editor Notes: Incident 750 is closely related to this incident. This incident focuses on Grok AI's performance in the wake of the Trump assassination attempt. Incident 750 discusses a variety of different chatbots' performances, but does not mention Grok AI, in the wake of both the Trump assassination attempt and Biden dropping out of the presidential election.
Entités
Voir toutes les entitésAlleged: xAI developed an AI system deployed by X (Twitter) et Elon Musk, which harmed Kamala Harris , Journalism , General public et Donald Trump.
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
3.1. False or misleading information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Misinformation
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
Rapports d'incidents
Chronologie du rapport
Elon Musk wants people to get news from Grok, his AI model accessible through the X platform. Grok is having trouble meeting the moment.
The artificial-intelligence model's limitations were on display in the hours after the attempted assas…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?