Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5301

Incidentes Asociados

Incidente 107222 Reportes
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
La fijación de Grok con el genocidio blanco causada por una “modificación no autorizada”
theverge.com · 2025

Después de que el chatbot Grok de xAI pasara unas horas el miércoles explicando a todos los usuarios de X que lo escucharan que la afirmación de genocidio blanco en Sudáfrica es muy polémica, la compañía atribuyó el comportamiento a una "modificación no autorizada" del código de Grok.

En el arrebato de varias horas, Grok insertó un debate sobre el presunto genocidio blanco en Sudáfrica en varias respuestas en X, sin importar el tema. Grok habló sobre la muerte de granjeros blancos en respuesta a un video de un gato bebiendo agua, relacionó la canción "Kill the Boer" con una pregunta sobre Bob Esponja y desglosó el tema en su jerga completa. Incluso el director ejecutivo de OpenAI, Sam Altman, se sumó a la acción, burlándose del fallo público del chatbot rival.

En una declaración sobre X, la compañía afirmó que alguien había modificado el mensaje del sistema del bot de IA, "que indicaba a Grok que diera una respuesta específica sobre un tema político". Dicha modificación "violó las políticas internas y los valores fundamentales de xAI", y la compañía afirma haber "realizado una investigación exhaustiva" y estar implementando nuevas medidas para mejorar la "transparencia y la fiabilidad".

Estas medidas incluyen la publicación de las indicaciones a nivel de sistema de Grok públicamente en GitHub, el lanzamiento de un equipo de monitoreo 24/7 para detectar problemas como este con mayor rapidez y la adición de "verificaciones y medidas adicionales para garantizar que los empleados de xAI no puedan modificar la indicación sin revisión".

xAI ya ha tenido este problema. La compañía culpó a un exempleado anónimo de OpenAI en febrero por impulsar un cambio en las indicaciones de Grok que permitió que el chatbot ignorara cualquier fuente que acusara a Elon Musk o Donald Trump de difundir desinformación. En ese momento, el jefe de ingeniería de xAI, Igor Babuschkin, dijo que el empleado había podido realizar el cambio "sin pedir confirmación a nadie en la empresa".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd