Incidentes Asociados
Después de que el chatbot Grok de xAI pasara unas horas el miércoles explicando a todos los usuarios de X que lo escucharan que la afirmación de genocidio blanco en Sudáfrica es muy polémica, la compañía atribuyó el comportamiento a una "modificación no autorizada" del código de Grok.
En el arrebato de varias horas, Grok insertó un debate sobre el presunto genocidio blanco en Sudáfrica en varias respuestas en X, sin importar el tema. Grok habló sobre la muerte de granjeros blancos en respuesta a un video de un gato bebiendo agua, relacionó la canción "Kill the Boer" con una pregunta sobre Bob Esponja y desglosó el tema en su jerga completa. Incluso el director ejecutivo de OpenAI, Sam Altman, se sumó a la acción, burlándose del fallo público del chatbot rival.
En una declaración sobre X, la compañía afirmó que alguien había modificado el mensaje del sistema del bot de IA, "que indicaba a Grok que diera una respuesta específica sobre un tema político". Dicha modificación "violó las políticas internas y los valores fundamentales de xAI", y la compañía afirma haber "realizado una investigación exhaustiva" y estar implementando nuevas medidas para mejorar la "transparencia y la fiabilidad".
Estas medidas incluyen la publicación de las indicaciones a nivel de sistema de Grok públicamente en GitHub, el lanzamiento de un equipo de monitoreo 24/7 para detectar problemas como este con mayor rapidez y la adición de "verificaciones y medidas adicionales para garantizar que los empleados de xAI no puedan modificar la indicación sin revisión".
xAI ya ha tenido este problema. La compañía culpó a un exempleado anónimo de OpenAI en febrero por impulsar un cambio en las indicaciones de Grok que permitió que el chatbot ignorara cualquier fuente que acusara a Elon Musk o Donald Trump de difundir desinformación. En ese momento, el jefe de ingeniería de xAI, Igor Babuschkin, dijo que el empleado había podido realizar el cambio "sin pedir confirmación a nadie en la empresa".