Description: xAI's model Grok, intended to automate news delivery on the X platform, is reported to have struggled to provide accurate information during the attempted assassination of former President Donald Trump. Grok apparently issued incorrect headlines, including false reports about Vice President Kamala Harris being shot and misidentifying the alleged shooter. These errors show the pitfalls of relying on AI for real-time news aggregation, as it allegedly amplified unverified claims and failed to recognize sarcasm, undermining its reliability.
Editor Notes: Incident 750 is closely related to this incident. This incident focuses on Grok AI's performance in the wake of the Trump assassination attempt. Incident 750 discusses a variety of different chatbots' performances, but does not mention Grok AI, in the wake of both the Trump assassination attempt and Biden dropping out of the presidential election.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado por xAI e implementado por X (Twitter) y Elon Musk, perjudicó a Kamala Harris , Journalism , General public y Donald Trump.
Estadísticas de incidentes
ID
742
Cantidad de informes
1
Fecha del Incidente
2024-07-13
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
wsj.com · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.