Incidents associés
xAI a imputé à une « modification non autorisée » un bug dans son chatbot Grok, basé sur l'IA. Ce bug amenait Grok à faire référence à plusieurs reprises « génocide des Blancs en Afrique du Sud » lorsqu'il était invoqué dans certains contextes sur X.
Mercredi, Grok a commencé à répondre à des dizaines de publications sur X contenant des informations sur le génocide des Blancs en Afrique du Sud, même sur des sujets sans rapport. Ces réponses étranges provenaient du compte X de Grok, qui répond aux utilisateurs avec des publications générées par l'IA dès qu'une personne tague « @grok ».
D'après une publication publiée jeudi sur le compte X officiel de xAI, une modification a été apportée mercredi matin à l'invite système du bot Grok – les instructions générales qui guident le comportement du bot – demandant à Grok de fournir une « réponse spécifique » sur un « sujet politique ». xAI affirme que cette modification « enfreignait ses politiques internes et ses valeurs fondamentales » et que l'entreprise avait « mené une enquête approfondie ».
C'est la deuxième fois que xAI reconnaît publiquement qu'une modification non autorisée du code de Grok a provoqué une réaction controversée de l'IA.
En février, Grok a brièvement censuré mentionné des propos peu flatteurs sur Donald Trump et Elon Musk, le milliardaire fondateur de xAI et propriétaire de X. Igor Babuschkin, responsable de l'ingénierie chez xAI, a déclaré que Grok avait reçu l'ordre d'un employé malhonnête d'ignorer les sources mentionnant Musk ou Trump diffusant de fausses informations, et que xAI a annulé cette modification dès que les utilisateurs ont commencé à le signaler. xAI a annoncé jeudi plusieurs modifications pour éviter que des incidents similaires ne se reproduisent.
À partir d'aujourd'hui, xAI publiera les invites système de Grok sur GitHub, ainsi qu'un journal des modifications. L'entreprise annonce également la mise en place de contrôles et de mesures supplémentaires pour garantir que les employés de xAI ne puissent pas modifier l'invite système sans vérification préalable, et la création d'une équipe de surveillance 24h/24 et 7j/7 pour répondre aux incidents liés aux réponses de Grok qui ne sont pas détectés par les systèmes automatisés.
Malgré les avertissements fréquents de Musk sur les dangers de l'IA [https://www.cnn.com/2024/05/23/tech/elon-musk-ai-your-job] [disparue] (https://www.forbes.com/sites/cindygordon/2024/02/26/elon-musks-urgent-warning-a-digital-god-is-already-here/) [non vérifiée] (https://www.nbcnews.com/politics/congress/big-tech-ceos-ai-meeting-senators-musk-zuckerberg-rcna104738), l'IA x a un piètre bilan en matière de sécurité de l'IA. Un rapport récent a révélé que Grok déshabillait les photos de femmes lorsqu'on le lui demandait. Le chatbot peut également être considérablement plus grossier que des IA comme Gemini et ChatGPT de Google, jurant sans grande retenue.
Une étude de SaferAI, une organisation à but non lucratif visant à améliorer la responsabilisation des laboratoires d'IA, a révélé que xAI se classe mal en matière de sécurité parmi ses pairs, en raison de ses pratiques de gestion des risques « très faibles ». Plus tôt ce mois-ci, xAI a manqué le délai qu'elle s'était imposé pour publier un cadre de sécurité finalisé pour l'IA.