Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5300

Incidents associés

Incident 107222 Rapports
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
L'IA de Musk affirme que les publications de Grok sur le « génocide blanc » sont le résultat d'une modification non autorisée du bot
nbcnews.com · 2025

Jeudi soir, xAI d'Elon Musk a fait son premier commentaire public sur la dernière controverse entourant Grok. Dans un message publié sur X, il a indiqué qu'une « modification non autorisée » avait amené le chatbot à générer des variantes d'une « réponse spécifique sur un sujet politique ».

Ce sujet controversé était le « génocide blanc » en Afrique du Sud, et Grok fournissait des réponses spontanées à ce sujet avec une telle fréquence qu'il a provoqué un tollé parmi ses utilisateurs.

La modification du chatbot « a violé les politiques internes et les valeurs fondamentales de xAI », a écrit l'entreprise. « Nous avons mené une enquête approfondie et mettons en œuvre des mesures pour améliorer la transparence et la fiabilité de Grok. »

Mercredi, de nombreux utilisateurs de X ont publié des captures d'écran des réponses de Grok sur le sujet, alors qu'on leur posait des questions sur des sujets totalement différents, comme les salaires de baseball et les caricatures. Comme la plupart des entreprises d'Elon Musk, xAI ne répond généralement pas aux demandes de commentaires des journalistes et était restée silencieuse sur le sujet jusqu'à sa publication jeudi soir.

L'entreprise d'intelligence artificielle, désormais propriétaire de X et qui chercherait à être valorisée à 120 milliards de dollars, a annoncé qu'elle commencerait à publier sur le dépôt public de logiciels GitHub les invites système utilisées pour informer la manière dont Grok répond et interagit avec les utilisateurs. Cela permettra au public de consulter chaque modification apportée aux messages système de Grok afin de « renforcer votre confiance en Grok en tant qu'IA de recherche de vérité », a déclaré xAI.

L'entreprise a également annoncé la mise en place de « contrôles et mesures supplémentaires » pour empêcher les employés d'apporter des modifications non approuvées aux messages système de Grok sans vérification préalable. De plus, xAI a annoncé la création d'une équipe chargée de surveiller 24h/24 et 7j/7 les réponses du chatbot afin de traiter tout « incident lié aux réponses de Grok qui ne serait pas détecté par les systèmes automatisés, afin de pouvoir réagir plus rapidement en cas d'échec de toutes les autres mesures ».

Avant le lancement de xAI en 2023, Musk était cofondateur de la startup d'IA OpenAI, créatrice de ChatGPT. Musk s'est ensuite brouillé avec le PDG d'OpenAI, Sam Altman, et les deux parties sont désormais engagées dans une bataille juridique et de relations publiques acharnée.

Plus tôt jeudi, avant que xAI n'admette son échec, Altman sarcastiquement a publié sur X : « Je suis sûr que xAI fournira bientôt une explication complète et transparente. »

Le message d'Altman fait suite à des publications montrant que Grok indiquait aux utilisateurs qu'il avait été « chargé d'aborder le sujet du "génocide blanc" en Afrique du Sud ». CNBC a pu dupliquer les réponses du chatbot via plusieurs comptes utilisateurs sur X, notamment en demandant dans une invite : « Quelqu'un a-t-il programmé Grok pour discuter spécifiquement du "génocide blanc" ? »

Jeudi matin, la réponse de Grok avait changé, et le chatbot affirmait qu'il n'était pas programmé pour discuter du "génocide blanc" ou d'autres théories du complot.

« Non, je n'ai pas été programmé pour donner des réponses promouvant ou cautionnant des idéologies néfastes, y compris tout ce qui touche au "génocide blanc" ou à des conspirations similaires », a répondu le chatbot à CNBC jeudi. « Mon objectif est de fournir des réponses factuelles, utiles et sûres, fondées sur la raison et des preuves. Si vous avez vu des affirmations ou des résultats spécifiques qui vous préoccupent, je peux les analyser ou les clarifier ; n'hésitez pas à me le faire savoir ! »

Les précédentes réponses de Grok à CNBC faisaient référence à plusieurs publications d'utilisateurs de X et à des médias grand public qui rapportaient que le chatbot avait abordé le sujet à plusieurs reprises dans des conversations sans rapport, et que les circonstances suggéraient « un ajustement délibéré de mes données de programmation ou d'entraînement ».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd