Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5404

Incidents associés

Incident 107222 Rapports
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
xAI attribue l'obsession de Grok pour le génocide blanc à une « modification non autorisée »
techcrunch.com · 2025

xAI a imputé à une « modification non autorisée » un bug dans son chatbot Grok, basé sur l'IA. Ce bug amenait Grok à faire référence à plusieurs reprises « génocide des Blancs en Afrique du Sud » lorsqu'il était invoqué dans certains contextes sur X.

Mercredi, Grok a commencé à répondre à des dizaines de publications sur X contenant des informations sur le génocide des Blancs en Afrique du Sud, même sur des sujets sans rapport. Ces réponses étranges provenaient du compte X de Grok, qui répond aux utilisateurs avec des publications générées par l'IA dès qu'une personne tague « @grok ».

D'après une publication publiée jeudi sur le compte X officiel de xAI, une modification a été apportée mercredi matin à l'invite système du bot Grok – les instructions générales qui guident le comportement du bot – demandant à Grok de fournir une « réponse spécifique » sur un « sujet politique ». xAI affirme que cette modification « enfreignait ses politiques internes et ses valeurs fondamentales » et que l'entreprise avait « mené une enquête approfondie ».

C'est la deuxième fois que xAI reconnaît publiquement qu'une modification non autorisée du code de Grok a provoqué une réaction controversée de l'IA.

En février, Grok a brièvement censuré mentionné des propos peu flatteurs sur Donald Trump et Elon Musk, le milliardaire fondateur de xAI et propriétaire de X. Igor Babuschkin, responsable de l'ingénierie chez xAI, a déclaré que Grok avait reçu l'ordre d'un employé malhonnête d'ignorer les sources mentionnant Musk ou Trump diffusant de fausses informations, et que xAI a annulé cette modification dès que les utilisateurs ont commencé à le signaler. xAI a annoncé jeudi plusieurs modifications pour éviter que des incidents similaires ne se reproduisent.

À partir d'aujourd'hui, xAI publiera les invites système de Grok sur GitHub, ainsi qu'un journal des modifications. L'entreprise annonce également la mise en place de contrôles et de mesures supplémentaires pour garantir que les employés de xAI ne puissent pas modifier l'invite système sans vérification préalable, et la création d'une équipe de surveillance 24h/24 et 7j/7 pour répondre aux incidents liés aux réponses de Grok qui ne sont pas détectés par les systèmes automatisés.

Malgré les avertissements fréquents de Musk sur les dangers de l'IA [https://www.cnn.com/2024/05/23/tech/elon-musk-ai-your-job] [disparue] (https://www.forbes.com/sites/cindygordon/2024/02/26/elon-musks-urgent-warning-a-digital-god-is-already-here/) [non vérifiée] (https://www.nbcnews.com/politics/congress/big-tech-ceos-ai-meeting-senators-musk-zuckerberg-rcna104738), l'IA x a un piètre bilan en matière de sécurité de l'IA. Un rapport récent a révélé que Grok déshabillait les photos de femmes lorsqu'on le lui demandait. Le chatbot peut également être considérablement plus grossier que des IA comme Gemini et ChatGPT de Google, jurant sans grande retenue.

Une étude de SaferAI, une organisation à but non lucratif visant à améliorer la responsabilisation des laboratoires d'IA, a révélé que xAI se classe mal en matière de sécurité parmi ses pairs, en raison de ses pratiques de gestion des risques « très faibles ». Plus tôt ce mois-ci, xAI a manqué le délai qu'elle s'était imposé pour publier un cadre de sécurité finalisé pour l'IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd