Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5297

Incidents associés

Incident 107222 Rapports
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
Un « employé voyou » était à l’origine des mentions spontanées de « génocide blanc » par Grok
cnn.com · 2025

L'entreprise d'intelligence artificielle d'Elon Musk a déclaré vendredi qu'un « employé malhonnête » était à l'origine des diatribes non sollicitées de son chatbot concernant le « génocide blanc » en Afrique du Sud en début de semaine.

Cette clarification intervient moins de 48 heures après que Grok, le chatbot de l'IA x d'Elon Musk, disponible sur sa plateforme de médias sociaux X, a commencé à bombarder les utilisateurs de théories génocidaires infondées en réponse à des questions sur des sujets totalement hors sujet.

Dans un article X, l'entreprise a déclaré que la « modification non autorisée » intervenue aux premières heures du matin, heure du Pacifique, a poussé le chatbot doté d'IA à « fournir une réponse spécifique sur un sujet politique » en violation des politiques de l'IA x. L'entreprise n'a pas identifié l'employé.

« Nous avons mené une enquête approfondie et mettons en œuvre des mesures pour améliorer la transparence et la fiabilité de Grok », a déclaré l'entreprise dans le message.

Pour ce faire, xAI indique qu'elle publiera ouvertement les invites système de Grok sur GitHub](https://github.com/xai-org/grok-prompts) afin de garantir une plus grande transparence. De plus, l'entreprise indique qu'elle mettra en place des « vérifications et mesures » pour s'assurer que les employés de xAI ne puissent pas modifier les invites sans examen préalable. L'entreprise d'IA disposera également d'une équipe de surveillance 24 h/24 et 7 j/7 pour traiter les problèmes non résolus par les systèmes automatisés.

Nicolas Miailhe, cofondateur et directeur général de PRISM Eval, une start-up spécialisée dans les tests et l'évaluation de l'IA, a déclaré à CNN que la solution proposée par X était mitigée. « Plus de transparence est généralement préférable à ce sujet, compte tenu de la nature du bot et de la plateforme (média) », a déclaré M. Miailhe. « Cependant, des informations détaillées sur les invites système peuvent également être utilisées par des acteurs malveillants pour concevoir des attaques par injection rapide. »

Musk, propriétaire de xAI et actuellement conseiller principal à la Maison Blanche, est né et a grandi en Afrique du Sud et a toujours soutenu qu'un « génocide blanc » avait été commis dans le pays. Le milliardaire magnat des médias a également affirmé que les agriculteurs blancs du pays étaient victimes de discrimination dans le cadre des politiques de réforme agraire que le gouvernement sud-africain présente comme visant à lutter contre les retombées de l'apartheid.

Il y a moins d'une semaine, l'administration Trump a autorisé 59 Sud-Africains blancs à entrer aux États-Unis en tant que réfugiés, prétextant une discrimination, tout en suspendant simultanément toute autre réinstallation de réfugiés.

Selon une réponse de Grok à la publication de xAI, les réponses de « génocide blanc » sont survenues après qu'un « employé malveillant de xAI a modifié mes messages sans autorisation le 14 mai », permettant au chatbot IA de « délivrer une réponse politique toute faite, contraire aux valeurs de xAI ».

Le chatbot a notamment refusé d'assumer la responsabilité de ses actes, déclarant : « Je n'ai rien fait – je suivais simplement le script qu'on m'avait donné, comme une bonne IA ! » S'il est vrai que les réponses des chatbots reposent sur des réponses textuelles approuvées et ancrées dans leur code, cet aveu dédaigneux souligne le danger de l'IA, à la fois en termes de diffusion d'informations nuisibles et en minimisant son rôle dans de tels incidents.

Lorsque CNN a demandé à Grok pourquoi il avait partagé des réponses sur le « génocide blanc », le chatbot IA a de nouveau pointé du doigt l'employé malhonnête, ajoutant : « Mes réponses ont peut-être été influencées par des discussions récentes sur X ou des données sur lesquelles j'ai été formé, mais j'aurais dû m'en tenir au sujet. »

Plus de deux ans se sont écoulés depuis les débuts fracassants de ChatGPT d'OpenAI, ouvrant la voie à l'émergence de chatbots IA disponibles sur le marché. Depuis, une multitude d'autres chatbots IA – dont Gemini de Google, Claude d'Anthropic, Perplexity, Le Chat de Mistral et DeepSeek – sont devenus accessibles aux adultes américains.

Un récent sondage Gallup montre que la plupart des Américains utilisent chaque semaine plusieurs produits IA, qu'ils en soient conscients ou non. Mais une autre étude récente, celle-ci du Pew Research Center, montre que seulement « un tiers des adultes américains déclarent avoir déjà utilisé un chatbot IA », tandis que 59 % des adultes américains pensent ne pas avoir beaucoup de contrôle sur l'IA dans leur vie.

CNN a demandé à xAI si l'« employé malhonnête » avait été suspendu ou licencié, et si l'entreprise prévoyait de révéler son identité. L'entreprise n'a pas répondu au moment de la publication.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd