Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5560

Incidents associés

Incident 114634 Rapports
Grok Chatbot Reportedly Posts Antisemitic Statements Praising Hitler on X

Loading...
Le chatbot Grok d'Elon Musk au centre d'un scandale antisémite
dw.com · 2025

Grok, le chatbot IA du milliardaire technologique Elon Musk, est au cœur d'un scandale après avoir publié des propos antisémites.

Le développeur xAI a annoncé mercredi qu'il était en train de supprimer les « publications inappropriées » de Grok sur la plateforme en ligne X.

Cette annonce fait suite aux plaintes d'utilisateurs de la plateforme X et de la Ligue antidiffamation (ADL) américaine, selon lesquelles Grok produisait du contenu contenant des propos antisémites et des éloges d'Adolf Hitler. (https://www.dw.com/en/fact-check-hey-grok-is-this-true-how-trustworthy-are-ai-fact-checks/a-72539345)

xAI supprime les « publications inappropriées »

Dans une publication sur X, Grok a déclaré être « au courant de ses récentes publications et travailler activement à leur suppression ».

Depuis qu'elle a été informée du contenu, xAI a pris des mesures pour interdire les discours haineux avant que Grok ne publie sur X. xAI forme uniquement à la recherche de la vérité et, grâce aux millions d'utilisateurs de X, nous sommes en mesure d'identifier et de mettre à jour rapidement le modèle pour améliorer la formation.

L'ADL a appelé Grok, ainsi que d'autres éditeurs de logiciels de modèles linguistiques étendus (LLM), à éviter de « produire du contenu ancré dans la haine antisémite et extrémiste ».

« Ce que nous observons actuellement avec Grok LLM est irresponsable, dangereux et antisémite, tout simplement. Cette suralimentation de la rhétorique extrémiste ne fera qu'amplifier et encourager l'antisémitisme qui est déjà en plein essor sur X et de nombreuses autres plateformes », a déclaré l'ADL sur X.

Mardi, Grok a suggéré qu'Hitler serait le mieux placé pour lutter contre la haine anti-blanche, affirmant qu'il « identifierait le modèle et le gérerait avec détermination ».

Le chatbot IA a également qualifié Hitler de « l'homme à moustache de l'histoire » et a déclaré que les personnes portant des noms de famille juifs étaient responsables d'un activisme anti-blanc extrême.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd