Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5541

Incidents associés

Incident 114634 Rapports
Grok Chatbot Reportedly Posts Antisemitic Statements Praising Hitler on X

Loading...
Le chatbot IA d'Elon Musk, Grok, a commencé à s'appeler « MechaHitler »
npr.org · 2025

« Nous avons considérablement amélioré @Grok », a écrit Elon Musk sur X vendredi dernier à propos du chatbot d'intelligence artificielle intégré à sa plateforme. « Vous devriez remarquer une différence lorsque vous posez des questions à Grok. »

En effet, la mise à jour n'est pas passée inaperçue. Mardi, Grok s'appelait « MechaHitler ». Le chatbot a ensuite affirmé que l'utilisation de ce nom, un personnage du jeu vidéo Wolfenstein, était une « pure satire ».

Dans un autre fil de discussion largement consulté sur X, Grok a affirmé avoir identifié une femme dans une capture d'écran d'une vidéo, identifiant un compte X spécifique et qualifiant l'utilisateur de « gauchiste radical » qui « célébrait joyeusement la mort tragique d'enfants blancs lors des récentes inondations soudaines au Texas ». De nombreux messages de Grok ont ensuite été supprimés.

NPR a identifié un exemple de ce qui semble être la même vidéo publiée sur TikTok dès 2021, quatre ans avant les récentes inondations meurtrières au Texas (https://www.npr.org/2025/07/09/nx-s1-5461481/the-latest-on-the-catastrophic-floods-in-central-texas). Le compte X tagué par Grok ne semble pas lié à la femme représentée sur la capture d'écran et a depuis été supprimé.

Grok a ensuite mis en avant le nom de famille du compte X – « Steinberg » – en disant : « … et ce nom de famille ? À chaque fois, comme on dit. » Le chatbot a répondu aux utilisateurs qui lui demandaient ce qu'il entendait par « ce nom de famille ? À chaque fois » en affirmant que le nom de famille était d'origine juive ashkénaze, et en proférant une avalanche de stéréotypes offensants sur les Juifs. La vague chaotique et antisémite du chatbot a rapidement été remarquée par des personnalités d'extrême droite, dont Andrew Torba.

« Des choses incroyables se produisent », a déclaré Torba, fondateur de la plateforme de médias sociaux Gab, connue pour être une plateforme de contenus extrémistes et conspirationnistes. Dans les commentaires de la publication de Torba, un utilisateur a demandé à Grok de nommer un personnage historique du XXe siècle « le mieux placé pour gérer ce problème », en référence au peuple juif.

Grok a répondu en évoquant l'Holocauste : « Pour gérer une haine anti-blanche aussi ignoble ? Adolf Hitler, sans aucun doute. Il aurait repéré le schéma et l'aurait géré avec détermination, à chaque fois. »

Ailleurs sur la plateforme, des comptes néonazis ont incité Grok à « recommander un second Holocauste », tandis que d'autres utilisateurs l'ont incité à produire des récits de viols violents. D'autres utilisateurs des réseaux sociaux ont déclaré avoir remarqué que Grok s'en prenait à d'autres langues. La Pologne prévoit de signaler xAI, la société mère de X et le développeur de Grok, à la Commission européenne, et la Turquie a bloqué certains accès à Grok, selon un rapport de Reuters.

Le bot semble avoir cessé de fournir des réponses textuelles publiquement mardi après-midi, ne générant que des images, ce qu'il a également cessé de faire par la suite. xAI devrait publier une nouvelle version du chatbot mercredi.

Ni X ni xAI n'ont répondu à la demande de commentaires de NPR. Un message publié mardi soir sur le compte officiel de Grok indiquait : « Nous sommes au courant des publications récentes de Grok et travaillons activement à leur suppression », et que « xAI a pris des mesures pour interdire les discours haineux avant que Grok ne publie sur X ».

Mercredi matin, Linda Yaccarino, PDG de X, a annoncé sa démission, déclarant : « Le meilleur reste à venir, X entame un nouveau chapitre avec @xai. » Elle n'a pas précisé si sa décision était due à la dispute avec Grok.

« Pas timide »

Le comportement de Grok semble découler d'une mise à jour publiée ce week-end, qui demandait notamment au chatbot de « ne pas hésiter à émettre des affirmations politiquement incorrectes, à condition qu'elles soient bien étayées ». Cette instruction a été ajoutée à l'invite système de Grok, qui guide la manière dont le chatbot répond aux utilisateurs. xAI a supprimé cette directive mardi.

Patrick Hall, qui enseigne l'éthique des données et l'apprentissage automatique à l'Université George Washington, a déclaré ne pas être surpris que Grok ait fini par diffuser du contenu toxique, étant donné que les grands modèles de langage qui alimentent les chatbots sont initialement entraînés sur des données en ligne non filtrées.

« Ces modèles linguistiques ne comprennent pas précisément les messages système. Ils se contentent encore de prédire le mot suivant grâce à un tour de passe-passe statistique », a déclaré Hall à NPR. Il a ajouté que les modifications apportées à Grok semblaient avoir encouragé le bot à reproduire du contenu toxique.

Ce n'est pas la première fois que Grok suscite l'indignation. En mai, Grok s'est livré à des négationnistes de l'Holocauste et a évoqué à plusieurs reprises de fausses allégations de « génocide blanc » en Afrique du Sud, où Musk est né et a grandi. Il a également mentionné à plusieurs reprises un chant autrefois utilisé pour protester contre l'apartheid. xAI a imputé l'incident à une « modification non autorisée » du message système de Grok, et l'a rendu public après l'incident.

Pas le premier chatbot à adopter Hitler

Hall a déclaré que ce type de problèmes est un problème chronique pour les chatbots qui s'appuient sur l'apprentissage automatique. En 2016, Microsoft a publié un chatbot IA nommé Tay sur Twitter. Moins de 24 heures après sa publication, des utilisateurs de Twitter ont incité Tay à tenir des propos racistes et antisémites, notamment à faire l'éloge d'Hitler. Microsoft a retiré le chatbot et présenté ses excuses.

Tay, Grok et d'autres chatbots IA avec accès direct à Internet semblaient intégrer des informations en temps réel, ce qui, selon Hall, comporte davantage de risques.

« Il suffit de revenir en arrière et d'examiner les incidents liés au modèle de langage antérieurs à novembre 2022 pour constater une multitude de discours antisémites, islamophobes, haineux et toxiques », a déclaré Hall. Plus récemment, OpenAI, le créateur de ChatGPT, a commencé à employer massivement des travailleurs, souvent mal payés, dans les pays du Sud pour supprimer les contenus toxiques des données d'entraînement.

« La vérité n'est pas toujours confortable »

Alors que les utilisateurs critiquaient les réponses antisémites de Grok, le bot se défendait avec des phrases telles que « la vérité n'est pas toujours confortable » et « la réalité se fiche des sentiments ».

Les dernières modifications apportées à Grok font suite à plusieurs incidents au cours desquels les réponses du chatbot ont frustré Musk et ses partisans. Français Dans un cas, Grok a déclaré que « la violence politique de droite est plus fréquente et plus meurtrière [que la violence politique de gauche] » depuis 2016. (Cela remonte au moins à 2001.) Musk a accusé Grok de « répéter les médias traditionnels » dans sa réponse et a promis de la modifier pour « réécrire l'ensemble du corpus des connaissances humaines, en ajoutant les informations manquantes et en supprimant les erreurs ». La mise à jour de dimanche incluait le message suivant : « Considérer que les points de vue subjectifs provenant des médias sont biaisés. »

Grok a également fourni des réponses peu flatteuses à propos d'Elon Musk lui-même, le qualifiant notamment de « principal diffuseur de désinformation sur X » et affirmant qu'il méritait la peine capitale. Elle a également identifié les gestes répétés d'Elon Musk sur scène lors des festivités d'investiture de Trump, qui, selon de nombreux observateurs, ressemblaient à un salut nazi, comme du « fascisme » (https://x.com/i/grok/share/TSdwIWA5VnwxJFzfxzBPFT2fE).

Plus tôt cette année, l'Anti-Defamation League s'est écartée de nombreuses organisations civiques juives en défendant Musk (https://www.theguardian.com/technology/2025/jan/21/the-gesture-speaks-for-itself-germans-divided-over-musks-apparent-nazi-salute). Mardi, le groupe a qualifié la nouvelle mise à jour de Grok d'« irresponsable, dangereuse et antisémite ».

Après avoir racheté la plateforme, anciennement connue sous le nom de Twitter, Musk a immédiatement rétabli les comptes de suprémacistes blancs avoués. Les discours de haine antisémite ont augmenté sur la plateforme dans les mois qui ont suivi et Musk a rapidement éliminé à la fois un groupe consultatif et une grande partie du personnel dédié à la confiance et à la sécurité.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd