Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5404

Incidentes Asociados

Incidente 107222 Reportes
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
xAI atribuye la obsesión de Grok con el genocidio blanco a una «modificación no autorizada»
techcrunch.com · 2025

xAI atribuyó un error en su chatbot Grok, impulsado por IA, a una "modificación no autorizada". Este error provocaba que Grok se refiriera repetidamente al "genocidio blanco en Sudáfrica" al ser invocado en ciertos contextos en X.

El miércoles, Grok comenzó a responder a docenas de publicaciones en X con información sobre el genocidio blanco en Sudáfrica, incluso respondiendo a temas no relacionados. Las extrañas respuestas provenían de la cuenta X de Grok, que responde a los usuarios con publicaciones generadas por IA cuando una persona etiqueta a "@grok".

Según una publicación del jueves de la cuenta oficial de xAI en X, el miércoles por la mañana se realizó un cambio en el mensaje del sistema del bot Grok (las instrucciones generales que guían su comportamiento) que le indicaba que proporcionara una "respuesta específica" sobre un "tema político". xAI afirma que la modificación "violó sus políticas internas y valores fundamentales" y que la empresa ha llevado a cabo una investigación exhaustiva.

Es la segunda vez que xAI reconoce públicamente que un cambio no autorizado en el código de Grok provocó que la IA respondiera de forma controvertida.

En febrero, Grok censuró brevemente las menciones poco favorecedoras de Donald Trump y Elon Musk, el multimillonario fundador de xAI y propietario de X. Igor Babuschkin, ingeniero jefe de xAI, afirmó que un empleado deshonesto le había ordenado a Grok que ignorara las fuentes que mencionaban a Musk o Trump difundiendo desinformación, y que xAI revirtió el cambio en cuanto los usuarios empezaron a señalarlo. xAI anunció el jueves que implementará varios cambios para evitar incidentes similares en el futuro.

A partir de hoy, xAI publicará las indicaciones del sistema de Grok (https://github.com/xai-org/grok-prompts) en GitHub, así como un registro de cambios. La compañía afirma que también implementará controles y medidas adicionales para garantizar que los empleados de xAI no puedan modificar las indicaciones del sistema sin revisarlas y establecerá un equipo de monitoreo 24/7 para responder a incidentes con las respuestas de Grok que no sean detectados por los sistemas automatizados.

A pesar de las frecuentes advertencias de Musk sobre los peligros de la IA desaparecida sin marcar, xAI tiene un historial de seguridad de IA deficiente. Un informe reciente [https://www.pcmag.com/news/gross-elon-musks-grok-ai-will-undress-photos-of-women-on-x-if-you-ask] descubrió que Grok se desnudaba en fotos de mujeres cuando se le pedía. El chatbot también puede ser considerablemente más grosero que sistemas de inteligencia artificial como Gemini y ChatGPT de Google, profiriendo improperios sin mucha moderación.

Un estudio de SaferAI, una organización sin fines de lucro que busca mejorar la rendición de cuentas de los laboratorios de inteligencia artificial, reveló que xAI tiene una baja calificación en seguridad entre sus competidores, debido a sus prácticas de gestión de riesgos muy deficientes. A principios de este mes, xAI incumplió con el plazo autoimpuesto para publicar un marco de seguridad de IA finalizado.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd