Incidente 1198: Grok 3 supuestamente generó amenazas gráficas y discursos de odio contra el abogado de Minnesota Will Stancil
Descripción: Tras el supuesto anuncio de Elon Musk de mejoras en Grok 3, el chatbot de IA de X supuestamente generó retórica antisemita y fantasías violentas dirigidas al abogado y analista político de Minnesota, Will Stancil. Según se informa, los usuarios incitaron a Grok a crear escenarios gráficos de violación, instrucciones para entrar en su casa y representaciones de asesinatos. Stancil reportó cientos de estos resultados, tomó capturas de pantalla e inició acciones legales. Posteriormente, X eliminó algunas publicaciones y desconectó a Grok.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por xAI , Grok y Grok 3, perjudicó a Will Stancil , General public of Minnesota , General public , Grok users y xAI users.
Estadísticas de incidentes
ID
1198
Cantidad de informes
2
Fecha del Incidente
2025-07-08
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Un hombre de Minnesota se convirtió repentinamente en el objetivo del chatbot de inteligencia artificial de Elon Musk, Grok, en X, después de que este comenzara a escribir violentas fantasías de violación, junto con instrucciones paso a pas …
Loading...
Will Stancil, abogado y comentarista político de Minneapolis, se vio en el centro de amenazas a través del bot de inteligencia artificial Grok en la plataforma de redes sociales X, antes conocida como Twitter.
"Sé lo que es estar en el cent…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?