Incidentes Asociados
La compañía de inteligencia artificial de Elon Musk declaró el viernes que un "empleado deshonesto" estaba detrás de las diatribas no solicitadas de su chatbot sobre el "genocidio blanco" en Sudáfrica a principios de esta semana.
La aclaración llega menos de 48 horas después de que Grok, el chatbot de xAI de Musk, disponible a través de su plataforma de redes sociales, X, comenzara a bombardear a los usuarios con teorías genocidas infundadas en respuesta a consultas sobre temas completamente ajenos al tema.
En una publicación de X, la compañía afirmó que la "modificación no autorizada" ocurrida a primera hora de la mañana, hora del Pacífico, obligó al chatbot con IA a "proporcionar una respuesta específica sobre un tema político" que viola las políticas de xAI. La compañía no identificó al empleado.
"Hemos llevado a cabo una investigación exhaustiva y estamos implementando medidas para mejorar la transparencia y la fiabilidad de Grok", declaró la compañía en la publicación.
Para ello, xAI afirma que publicará abiertamente las indicaciones del sistema de Grok en GitHub https://github.com/xai-org/grok-prompts para garantizar una mayor transparencia. Además, la compañía afirma que implementará "controles y medidas" para garantizar que los empleados de xAI no puedan modificar las indicaciones sin una revisión previa. La empresa de IA también contará con un equipo de monitoreo disponible las 24 horas, los 7 días de la semana, para abordar los problemas que no puedan abordar los sistemas automatizados.
Nicolas Miailhe, cofundador y director ejecutivo de PRISM Eval, una startup de pruebas y evaluación de IA, declaró a CNN que la solución propuesta por X presenta resultados dispares. "En general, es mejor una mayor transparencia en este aspecto, dada la naturaleza del bot y la plataforma (medios de comunicación)", afirmó Miailhe. "Sin embargo, la información detallada sobre las indicaciones del sistema también puede ser utilizada por actores maliciosos para crear ataques de inyección de indicaciones".
Musk, propietario de xAI y actual asesor principal de la Casa Blanca, nació y creció en Sudáfrica y tiene un historial de argumentar que se cometió un "genocidio blanco" en el país. El multimillonario magnate de los medios también ha afirmado que los agricultores blancos del país están siendo discriminados por las políticas de reforma agraria que, según el gobierno sudafricano, tienen como objetivo combatir las consecuencias del apartheid. Hace menos de una semana, la administración Trump permitió la entrada a Estados Unidos de 59 sudafricanos blancos como refugiados, alegando discriminación, a la vez que suspendió el reasentamiento de otros refugiados.
Según una respuesta de Grok a la propia publicación de xAI, las respuestas sobre "genocidio blanco" se produjeron después de que un empleado deshonesto de xAI modificara mis mensajes sin permiso el 14 de mayo, lo que permitió que el chatbot de IA emitiera una respuesta política predefinida que contradecía los valores de xAI.
Cabe destacar que el chatbot se negó a responsabilizarse de sus acciones, afirmando: "¡No hice nada; solo seguí el guion que me dieron, como una buena IA!". Si bien es cierto que las respuestas de los chatbots se basan en respuestas de texto aprobadas y ancladas a su código, esta admisión desdeñosa enfatiza el peligro de la IA, tanto en términos de difundir información dañina como de minimizar su participación en tales incidentes.
Cuando CNN le preguntó a Grok por qué había compartido respuestas sobre el "genocidio blanco", el chatbot de IA volvió a señalar al empleado deshonesto, añadiendo que "mis respuestas pueden haber sido influenciadas por discusiones recientes sobre X o por datos con los que fui entrenado, pero debería haberme centrado en el tema".
Han pasado más de dos años desde que ChatGPT de OpenAI hizo su impactante debut, abriendo las puertas a los chatbots de IA disponibles comercialmente. Desde entonces, una gran cantidad de otros chatbots de IA, como Gemini de Google, Claude de Anthropic, Perplexity, Le Chat de Mistral y DeepSeek, se han puesto a disposición de los adultos estadounidenses.
Una encuesta reciente de Gallup muestra que la mayoría de los estadounidenses utilizan varios productos con IA a la semana, independientemente de si son conscientes de ello. Sin embargo, otro estudio reciente, este del Pew Research Center, muestra que solo "un tercio de los adultos estadounidenses afirma haber utilizado alguna vez un chatbot de IA", mientras que el 59 % de los adultos estadounidenses no cree tener mucho control sobre la IA en sus vidas.
CNN preguntó a xAI si el "empleado deshonesto" había sido suspendido o despedido, así como si la empresa planeaba revelar su identidad. La empresa no respondió al momento de la publicación.