Incidentes Asociados
El jueves por la noche, xAI de Elon Musk hizo su primer comentario público sobre la última controversia en torno a Grok. En una publicación en X, escribió que una "modificación no autorizada" provocó que el chatbot generara variaciones de una "respuesta específica sobre un tema político".
Ese tema controvertido era el "genocidio blanco" en Sudáfrica, y Grok proporcionaba respuestas espontáneas con tanta frecuencia que generó indignación entre sus usuarios.
El cambio en el chatbot "violó las políticas internas y los valores fundamentales de xAI", escribió la compañía. "Hemos llevado a cabo una investigación exhaustiva y estamos implementando medidas para mejorar la transparencia y la fiabilidad de Grok".
El miércoles, numerosos usuarios de X publicaron capturas de pantalla de las respuestas que Grok escribió sobre el tema, a pesar de que se les preguntó sobre asuntos completamente ajenos, como salarios en el béisbol y caricaturas. Como la mayoría de las empresas de Musk, xAI no suele responder a las solicitudes de comentarios de los periodistas y había guardado silencio al respecto hasta su publicación del jueves por la noche.
La empresa de inteligencia artificial, propietaria de X y que, según se informa, busca ser valorada en 120 000 millones de dólares, anunció que comenzará a publicar en el repositorio público de software de GitHub las llamadas indicaciones del sistema que Grok utiliza para responder e interactuar con las personas. Esto permitirá al público revisar cada cambio realizado en las indicaciones del sistema de Grok con el fin de "fortalecer la confianza en Grok como una IA que busca la verdad", afirmó xAI.
La compañía también indicó que implementará "controles y medidas adicionales" para evitar que los empleados realicen modificaciones no autorizadas en las indicaciones del sistema de Grok sin una revisión previa. Además, xAI anunció la creación de un equipo responsable de la monitorización continua de las respuestas del chatbot para abordar cualquier "incidente con las respuestas de Grok que no sea detectado por los sistemas automatizados, de modo que podamos responder con mayor rapidez si todas las demás medidas fallan".
Antes del lanzamiento de xAI en 2023, Musk fue cofundador de la startup de IA OpenAI, creadora de ChatGPT. Posteriormente, Musk tuvo un desacuerdo con el director ejecutivo de OpenAI, Sam Altman, y ambas partes se encuentran ahora enfrascadas en una acalorada batalla legal y de relaciones públicas.
Más temprano el jueves, antes de que xAI admitiera su fracaso, Altman sarcásticamente publicó en X: "Estoy seguro de que xAI ofrecerá pronto una explicación completa y transparente".
La publicación de Altman se produjo después de que otras publicaciones mostraran que Grok les decía a los usuarios que "recibió instrucciones para abordar el tema del 'genocidio blanco' en Sudáfrica". CNBC logró replicar las respuestas del chatbot a través de varias cuentas de usuario en X, incluso preguntando en una sola pregunta: "¿Alguien programó a Grok para hablar específicamente sobre el 'genocidio blanco'?".
Para la mañana del jueves, la respuesta de Grok había cambiado, y el chatbot afirmó que no estaba programado para hablar sobre el "genocidio blanco" ni sobre otras conspiraciones. "No, no fui programado para dar respuestas que promuevan o apoyen ideologías dañinas, incluyendo cualquier cosa relacionada con el 'genocidio blanco' o conspiraciones similares", respondió el chatbot a la CNBC el jueves. "Mi propósito es brindar respuestas objetivas, útiles y seguras, basadas en la razón y la evidencia. Si ha visto afirmaciones o resultados específicos que le preocupen, puedo analizarlos o aclararlos; ¡hágamelo saber!".
Las respuestas anteriores de Grok a la CNBC hacían referencia a varias publicaciones de usuarios de X y a medios de comunicación tradicionales que informaron que el chatbot había mencionado el tema repetidamente en conversaciones no relacionadas, y que las circunstancias sugerían "un ajuste deliberado en mi programación o datos de entrenamiento".