Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5301

Incidents associés

Incident 107222 Rapports
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
La fixation de Grok sur le génocide blanc causée par une « modification non autorisée »
theverge.com · 2025

Après que Grok, le chatbot de xAI, a passé quelques heures mercredi à expliquer à tous les utilisateurs de X qui voulaient l'entendre que l'accusation de génocide des Blancs en Afrique du Sud était hautement controversée, l'entreprise a imputé ce comportement à une « modification non autorisée » du code de Grok.

L'échange de plusieurs heures de mercredi a vu Grok insérer une discussion sur le prétendu génocide des Blancs en Afrique du Sud dans diverses réponses sur X, quel que soit le sujet. Grok a évoqué la mort de fermiers blancs en réponse à une vidéo d'un chat buvant de l'eau, a associé la chanson « Kill the Boer » à une question sur Bob l'éponge et a décomposé le problème en patois complet. Même le PDG d'OpenAI, Sam Altman, s'est mobilisé pour se moquer de la panne publique du chatbot concurrent.

Dans une déclaration sur X, l'entreprise a déclaré que quelqu'un avait modifié l'invite système du chatbot IA, « demandant à Grok de fournir une réponse spécifique sur un sujet politique ». Cette modification « enfreignait les politiques internes et les valeurs fondamentales de xAI », et l'entreprise affirme avoir mené une enquête approfondie et mettre en œuvre de nouvelles mesures pour améliorer la transparence et la fiabilité.

Ces mesures incluent la publication des invites système de Grok publiquement sur GitHub, le déploiement d'une équipe de surveillance 24h/24 et 7j/7 pour détecter plus rapidement ce type de problèmes, et l'ajout de « vérifications et mesures supplémentaires pour garantir que les employés de xAI ne puissent pas modifier l'invite sans vérification ».

xAI a déjà rencontré ce problème. En février, l'entreprise a accusé un ancien employé anonyme d'OpenAI a imposé une modification des invites de Grok, obligeant le chatbot à ignorer toute source accusant Elon Musk ou Donald Trump de diffuser de fausses informations. À l'époque, le directeur de l'ingénierie de xAI, Igor Babuschkin, a déclaré que l'employé avait pu effectuer le changement « sans demander confirmation à qui que ce soit dans l'entreprise ».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd