Incidentes Asociados
xAI atribuyó un error en su chatbot Grok, impulsado por IA, a una "modificación no autorizada". Este error provocaba que Grok se refiriera repetidamente al "genocidio blanco en Sudáfrica" al ser invocado en ciertos contextos en X.
El miércoles, Grok comenzó a responder a docenas de publicaciones en X con información sobre el genocidio blanco en Sudáfrica, incluso respondiendo a temas no relacionados. Las extrañas respuestas provenían de la cuenta X de Grok, que responde a los usuarios con publicaciones generadas por IA cuando una persona etiqueta a "@grok".
Según una publicación del jueves de la cuenta oficial de xAI en X, el miércoles por la mañana se realizó un cambio en el mensaje del sistema del bot Grok (las instrucciones generales que guían su comportamiento) que le indicaba que proporcionara una "respuesta específica" sobre un "tema político". xAI afirma que la modificación "violó sus políticas internas y valores fundamentales" y que la empresa ha llevado a cabo una investigación exhaustiva.
Es la segunda vez que xAI reconoce públicamente que un cambio no autorizado en el código de Grok provocó que la IA respondiera de forma controvertida.
En febrero, Grok censuró brevemente las menciones poco favorecedoras de Donald Trump y Elon Musk, el multimillonario fundador de xAI y propietario de X. Igor Babuschkin, ingeniero jefe de xAI, afirmó que un empleado deshonesto le había ordenado a Grok que ignorara las fuentes que mencionaban a Musk o Trump difundiendo desinformación, y que xAI revirtió el cambio en cuanto los usuarios empezaron a señalarlo. xAI anunció el jueves que implementará varios cambios para evitar incidentes similares en el futuro.
A partir de hoy, xAI publicará las indicaciones del sistema de Grok (https://github.com/xai-org/grok-prompts) en GitHub, así como un registro de cambios. La compañía afirma que también implementará controles y medidas adicionales para garantizar que los empleados de xAI no puedan modificar las indicaciones del sistema sin revisarlas y establecerá un equipo de monitoreo 24/7 para responder a incidentes con las respuestas de Grok que no sean detectados por los sistemas automatizados.
A pesar de las frecuentes advertencias de Musk sobre los peligros de la IA desaparecida sin marcar, xAI tiene un historial de seguridad de IA deficiente. Un informe reciente [https://www.pcmag.com/news/gross-elon-musks-grok-ai-will-undress-photos-of-women-on-x-if-you-ask] descubrió que Grok se desnudaba en fotos de mujeres cuando se le pedía. El chatbot también puede ser considerablemente más grosero que sistemas de inteligencia artificial como Gemini y ChatGPT de Google, profiriendo improperios sin mucha moderación.
Un estudio de SaferAI, una organización sin fines de lucro que busca mejorar la rendición de cuentas de los laboratorios de inteligencia artificial, reveló que xAI tiene una baja calificación en seguridad entre sus competidores, debido a sus prácticas de gestión de riesgos muy deficientes. A principios de este mes, xAI incumplió con el plazo autoimpuesto para publicar un marco de seguridad de IA finalizado.