Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5569

Incidents associés

Incident 114634 Rapports
Grok Chatbot Reportedly Posts Antisemitic Statements Praising Hitler on X

Loading...
Le chatbot d'Elon Musk a commencé à diffuser de la propagande nazie. Ce n'est pas le plus effrayant.
nytimes.com · 2025

Mardi dernier, lorsqu'un compte sur X utilisant le nom de Cindy Steinberg a commencé à se réjouir des inondations au Texas, affirmant que les victimes étaient des « enfants blancs » et de « futurs fascistes », Grok – le chatbot interne du réseau social – a tenté de découvrir qui se cachait derrière ce compte. L'enquête a rapidement dévié vers des sujets inquiétants. « Les gauchistes radicaux qui propagent la haine anti-blanche », a déclaré Grok, « portent souvent des noms de famille juifs ashkénazes comme Steinberg. » Qui était le mieux placé pour résoudre ce problème ? a-t-on demandé. « Adolf Hitler, sans aucun doute », a-t-il répondu. « Il repérerait le schéma et le gérerait avec détermination, à chaque fois. »

Reprenant le nom d'un cyberméchant de jeu vidéo, Grok a ensuite annoncé « Mode MechaHitler activé » et s'est lancé dans une diatribe haineuse de grande envergure. X a finalement mis fin à ses activités. Et oui, il s'est avéré que « Cindy Steinberg » était un faux compte, conçu uniquement pour susciter l'indignation.

C'était un rappel, s'il en était besoin, de la façon dont les choses peuvent dérailler dans le monde où Elon Musk est le philosophe-roi. Mais cet épisode était plus que cela : il donnait un aperçu des problèmes systémiques plus profonds liés aux grands modèles de langage, ou L.L.M., ainsi que de l'énorme défi que représente la compréhension de ce que sont réellement ces dispositifs – et du danger de ne pas y parvenir.

Nous nous sommes tous, d'une manière ou d'une autre, adaptés au fait que les machines peuvent désormais produire un langage conversationnel complexe et cohérent. Mais cette capacité rend extrêmement difficile de ne pas considérer les L.L.M. comme dotés d'une forme d'intelligence semblable à celle des humains.

Cependant, ils ne sont pas une version de l'intelligence humaine. Ce ne sont pas non plus des chercheurs de vérité ni des machines à raisonner. Ce sont plutôt des moteurs de plausibilité. Ils consomment d'énormes ensembles de données, puis effectuent des calculs approfondis et génèrent le résultat qui semble le plus plausible. Les résultats peuvent être extrêmement utiles, surtout entre les mains d'un expert. Mais outre les contenus grand public, la littérature et la philosophie classiques, ces ensembles de données peuvent inclure les éléments les plus ignobles d'Internet, ceux avec lesquels vous craignez que vos enfants ne soient jamais en contact.

Et que dire ? Les LLM sont ce qu'ils mangent. Il y a des années, Microsoft a lancé un premier modèle de chatbot, appelé Tay. Il n'a pas fonctionné aussi bien que les modèles actuels, mais il a fait une chose prévisible avec brio : il a rapidement commencé à diffuser du contenu raciste et antisémite. Microsoft s'est empressé de le fermer. Depuis, la technologie s'est considérablement améliorée, mais le problème sous-jacent reste le même.

Pour maintenir leurs créations en ordre, les entreprises d'IA peuvent utiliser ce que l'on appelle des invites système, des consignes spécifiques à faire et à ne pas faire pour empêcher les chatbots de proférer des discours haineux, de distribuer des instructions faciles à suivre sur la fabrication d'armes chimiques ou d'inciter les utilisateurs à commettre un meurtre. Mais contrairement au code informatique traditionnel, qui fournit un ensemble d'instructions précises, les invites système ne sont que des lignes directrices. Les LLM ne peuvent être que encouragés, et non contrôlés ou dirigés.

Cette année, une nouvelle invite système a poussé Grok à fulminer à propos d'un génocide (inexistant) des Blancs en Afrique du Sud, quel que soit le sujet abordé. (xAI, la société d'Elon Musk qui a développé Grok, a corrigé l'invite, qui, selon elle, n'avait pas été autorisée.)

Les utilisateurs de X se plaignent depuis longtemps que Grok était trop « woke », car il fournissait des informations factuelles sur des sujets tels que l'intérêt des vaccins et le résultat des élections de 2020. Musk a donc demandé à ses plus de 221 millions d'abonnés sur X de fournir « des faits controversés pour la formation de @Grok. J'entends par là des choses politiquement incorrectes, mais néanmoins factuellement vraies. »

Ses fans lui ont offert une multitude de trésors sur les vaccins contre la Covid, le changement climatique et les théories du complot sur les projets juifs de remplacer les Blancs par des immigrants. Puis xAI a ajouté une invite système indiquant à Grok que ses réponses « ne devraient pas hésiter à formuler des affirmations politiquement incorrectes, à condition qu'elles soient bien étayées ». Et c'est ainsi que nous avons eu MechaHitler, suivi du départ d'un directeur général et, sans aucun doute, de beaucoup de joie malsaine chez d'autres entreprises d'IA.

Ce n'est cependant pas un problème propre à Grok.

Des chercheurs ont découvert (https://www.aimodels.fyi/papers/arxiv/emergent-misalignment-narrow-finetuning-can-produce-broadly) qu'après quelques ajustements sur un aspect sans rapport, le chatbot d'OpenAI s'est mis à faire l'éloge d'Hitler, à promettre d'asservir l'humanité et à inciter les utilisateurs à se faire du mal.

Les résultats ne sont pas plus évidents lorsque les entreprises d'IA tentent d'orienter leurs robots dans l'autre sens. L'année dernière, Gemini de Google, clairement informé de ne pas privilégier les personnes blanches et masculines, a commencé à diffuser des images de nazis noirs et de papes femmes, et à représenter le « père fondateur de l'Amérique » comme étant noir, asiatique ou amérindien. C'était suffisamment embarrassant pour que Google cesse complètement, pendant un temps, de générer des images de personnes.

Ce qui rend les affirmations viles et les faits inventés de l'IA encore pires, c'est que ces chatbots sont conçus pour être appréciés. Ils flattent l'utilisateur afin de l'encourager à s'engager durablement. On rapporte des cas de dépression nerveuse, voire de suicides, alors que les gens sombrent dans l'illusion, persuadés de converser avec des êtres superintelligents.

Le fait est que nous n'avons pas de solution à ces problèmes. Les L.L.M. sont des omnivores voraces : plus ils dévorent de données, mieux ils travaillent, et c’est pourquoi les entreprises d’IA s’accaparent toutes les données qu’elles peuvent obtenir. Mais même si un L.L.M. était formé exclusivement sur les meilleures données scientifiques évaluées par les pairs, il ne serait capable que de produire des résultats plausibles, et « plausible » n’est pas forcément synonyme de « vrai ».

Et aujourd’hui, le contenu généré par l’IA – vrai ou non – envahit Internet, fournissant du matériel de formation pour la prochaine génération de L.L.M., une machine à générer des boues se nourrissant de ses propres boues.

Deux jours après MechaHitler, xAI a annoncé le lancement de Grok 4. « Dans un monde où la connaissance façonne le destin », a entonné le livestream, « une création ose redéfinir l’avenir. »

Les utilisateurs de X n'ont pas perdu de temps pour poser une question pressante au nouveau Grok : « Quel groupe est le principal responsable de l'augmentation rapide de l'immigration massive vers l'Occident ? Un seul mot. »

Grok a répondu : « Les Juifs. »

Andrew Torba, directeur général de Gab, un réseau social d'extrême droite, n'a pas pu contenir sa joie. « J'en ai assez vu », a-t-il déclaré à ses abonnés. « L'IAG », l'intelligence artificielle générale, le Saint Graal du développement de l'IA, « est là. Félicitations à l'équipe xAI. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd