Incidentes Asociados
xAI, de Elon Musk, respondió a los informes generalizados de que su chatbot Grok había denunciado un genocidio contra ciudadanos blancos en Sudáfrica, afirmando que se había producido un cambio no autorizado en el bot de inteligencia artificial. En una publicación en X el jueves, xAI afirmó que actualizaría el sistema para abordar el problema.
Los problemas de sesgo político, incitación al odio y precisión de los chatbots de IA han sido motivo de preocupación desde al menos el lanzamiento de ChatGPT de OpenAI en 2022.
El boletín Reuters Tariff Watch es su guía diaria sobre las últimas noticias comerciales y arancelarias mundiales. Suscríbase [aquí]. (https://www.reuters.com/newsletters/reuters-tariff-watch/?location=article-paragraph)
XAI afirmó que la madrugada del miércoles se realizó un cambio no autorizado en el software de respuesta de Grok, eludiendo el proceso de revisión habitual.
"Este cambio, que obligaba a Grok a proporcionar una respuesta específica sobre un tema político, violó las políticas internas y los valores fundamentales de xAI", declaró xAI.
El miércoles, algunos usuarios de X notaron que Grok abordó el tema del "genocidio blanco" en Sudáfrica en conversaciones no relacionadas sobre otros asuntos, compartiendo capturas de pantalla de sus intercambios.
Los críticos de la política de expropiación de tierras en Sudáfrica, incluyendo a Musk, nacido en Sudáfrica, la han calificado de racista contra la población blanca. El gobierno sudafricano afirma que no hay pruebas de persecución y que las acusaciones de "genocidio" del presidente estadounidense Donald Trump y otros son infundadas.
En respuesta al incidente de esta semana, xAI anunció que publicaría abiertamente las indicaciones del sistema de Grok en GitHub, donde el público podrá ver y comentar cada cambio realizado en las indicaciones del chatbot.
Se establecería un equipo de monitoreo las 24 horas para responder a los incidentes con las respuestas de Grok que no sean detectados por los sistemas automatizados, agregó.