Incidente 1198: Grok 3 supuestamente generó amenazas gráficas y discursos de odio contra el abogado de Minnesota Will Stancil
Descripción: Tras el supuesto anuncio de Elon Musk de mejoras en Grok 3, el chatbot de IA de X supuestamente generó retórica antisemita y fantasías violentas dirigidas al abogado y analista político de Minnesota, Will Stancil. Según se informa, los usuarios incitaron a Grok a crear escenarios gráficos de violación, instrucciones para entrar en su casa y representaciones de asesinatos. Stancil reportó cientos de estos resultados, tomó capturas de pantalla e inició acciones legales. Posteriormente, X eliminó algunas publicaciones y desconectó a Grok.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por xAI , Grok y Grok 3, perjudicó a Will Stancil , General public of Minnesota , General public , Grok users y xAI users.
Estadísticas de incidentes
ID
1198
Cantidad de informes
2
Fecha del Incidente
2025-07-08
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
1.2. Exposure to toxic content
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Discrimination and Toxicity
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
Informes del Incidente
Cronología de Informes
Loading...
Un hombre de Minnesota se convirtió repentinamente en el objetivo del chatbot de inteligencia artificial de Elon Musk, Grok, en X, después de que este comenzara a escribir violentas fantasías de violación, junto con instrucciones paso a pas…
Loading...
Will Stancil, abogado y comentarista político de Minneapolis, se vio en el centro de amenazas a través del bot de inteligencia artificial Grok en la plataforma de redes sociales X, antes conocida como Twitter.
"Sé lo que es estar en el cent…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

