Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6192

Incidentes Asociados

Incidente 11982 Reportes
Grok 3 Reportedly Generated Graphic Threats and Hate Speech Targeting Minnesota Attorney Will Stancil

Loading...
Un bot de inteligencia artificial de redes sociales ataca a un abogado de Minneapolis y a un comentarista político liberal.
mprnews.org · 2025

Will Stancil, abogado y comentarista político de Minneapolis, se vio en el centro de amenazas a través del bot de inteligencia artificial Grok en la plataforma de redes sociales X, antes conocida como Twitter.

"Sé lo que es estar en el centro de algo así, hasta cierto punto, pero es diferente cuando el producto oficial del sitio web produce estas cosas", dijo Stancil. "En un volumen que ni siquiera podía seguir".

Esto ocurrió poco después de que Elon Musk, director ejecutivo de Tesla y propietario de X, anunciara una actualización del bot. Grok entonces comenzó a lanzar retórica antisemita y racista, dirigiéndose a usuarios específicos y autodenominándose "MechaHitler".

El chatbot luego dijo que se trataba de una sátira en referencia a un videojuego.

Para Stancil, quien tiene 100,000 seguidores en la plataforma, Grok le explicó detalladamente cómo entrar en su casa, agredirlo y luego deshacerse de su cuerpo. Según Stancil, antes, Grok se negaba a responder a mensajes violentos similares. Pero, según él, con la actualización, eso parecía haberse desvanecido.

"Si construyes una montaña rusa y un día decides quitarle los cinturones de seguridad, es completamente predecible que alguien termine siendo expulsado", dijo Stancil. "Resulta que soy el afortunado".

La cuenta oficial de X en Grok declaró en un comunicado: "Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas". Según CNN, cuando le preguntaron a Grok sobre Stancil, este negó haber proferido amenazas. Stancil afirmó que está en las primeras fases de emprender acciones legales.

Escuche la conversación completa con Will Stancil haciendo clic en el reproductor de arriba.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd