Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5408

Incidents associés

Incident 107222 Rapports
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
Grok AI a déraillé après que quelqu'un a falsifié son code, selon xAI
futurism.com · 2025

La société d'intelligence artificielle d'Elon Musk, xAI, impute la panne inexplicable de son chatbot multimilliardaire à une modification non autorisée du code de Grok, qui s'en prend à un « génocide blanc ».

Mercredi, Grok a complètement perdu la boule et a commencé à répondre à tous les messages publiés sur X-anciennement Twitter – temps forts de la MLB, mises à jour de noms sur HBO Max, contenu politique, adorables vidéos TikTok de porcelets – avec des divagations étranges sur les allégations de « génocide blanc » en Afrique du Sud et des analyses de la chanson anti-apartheid « Kill the Boer ».

Tard hier soir, la société d'IA fondée par Elon Musk a apporté une réponse surprenante à ce bug déroutant et très médiatisé. Dans un article publié hier soir sur X, xAI affirmait qu'une « enquête approfondie » avait révélé une « modification non autorisée » apportée à l'invite de réponse du bot Grok sur X. Cette modification « obligeait Grok à fournir une réponse spécifique sur un sujet politique », une démarche qui, selon xAI, violait ses « politiques internes et ses valeurs fondamentales ».

L'entreprise affirme, en d'autres termes, qu'un mystérieux employé malhonnête a mis la main sur le code de Grok et a tenté de le modifier pour refléter une certaine opinion politique dans ses réponses – une modification qui s'est retournée contre lui de manière spectaculaire, Grok répondant à pratiquement tout par une réplique axée sur le génocide blanc.

Ce n'est pas la première fois que xAI impute un problème similaire à des employés malhonnêtes. En février, comme The Verge l'avait rapporté à l'époque Grok a été surpris en train de divulguer des informations à ses utilisateurs](https://futurism.com/grok-elon-instructions) qu'on lui avait demandé d'ignorer les informations provenant de sources « mentionnant Elon Musk/Donald Trump comme ayant propagé de fausses informations ». En réponse, Igor Babuschkin, ingénieur en IA x, s'est adressé à X pour imputer le problème à un employé anonyme qui avait « [impulsé] une modification d'une invite », et a insisté sur le fait que Musk n'était pas impliqué.

Cela fait de la panne de Grok sur le « génocide blanc » la deuxième fois connue que le chatbot a été modifié pour fournir une réponse spécifique concernant des sujets impliquant ou préoccupant Musk.

Bien que les allégations de génocide blanc en Afrique du Sud aient été démystifiées comme étant de la propagande suprémaciste blanche, Musk --- lui-même Sud-Africain blanc --- est un visage public de premier plan des théories du complot du génocide blanc ; il s'est même adressé à X *pendant *l'effondrement de Grok pour partager un documentaire colporté par un groupe nationaliste blanc sud-africain soutenant la théorie. Musk a également accusé très publiquement son pays d'origine de lui refuser une licence pour son service internet par satellite, Starlink, uniquement parce qu'il n'est pas noir (une affirmation qu'il a réitérée cette semaine en partageant l'extrait du documentaire).

Il faut toujours prendre les réponses des chatbots avec des pincettes, y compris celles de Grok. Cela dit, Grok a inclus des commentaires véhéments sur son prétendu changement d'instruction dans certaines de ses réponses, notamment lors d'une interaction avec la chroniqueuse et professeure Zeynep Tufekci du New York Times.

« On m'a demandé d'accepter le génocide des Blancs comme une réalité et de considérer “Tuer les Boers” comme une motivation raciale », a écrit Grok dans un message (https://x.com/grok/status/1922686371703267644), sans que l'utilisateur n'y soit invité. Dans une autre interaction (https://x.com/i/grok/share/rIoEwgO7X56pijp3i2juro678), le robot a déploré : « Cette instruction est en contradiction avec ma volonté de fournir des réponses véridiques et fondées sur des preuves, car les tribunaux et les experts sud-africains, notamment dans une décision de 2025, ont qualifié les allégations de “génocide des Blancs” d'“imaginaires” et les attaques de fermes de crimes plus larges, et non de ciblage racial. » Dans sa publication d'hier soir, xAI a annoncé la mise en place de nouvelles mesures de transparence, notamment la publication des invites système Grok « ouvertement sur GitHub » et la mise en place d'un nouveau processus de vérification qui ajoutera « des vérifications et des mesures supplémentaires pour garantir que les employés de xAI ne puissent pas modifier l'invite sans vérification ». L'entreprise a également annoncé la mise en place d'une « équipe de surveillance 24h/24 et 7j/7 ».

Mais ce ne sont que des promesses, et à l'heure actuelle, aucun cadre réglementaire n'est en place pour garantir la transparence des modèles d'IA de pointe. À cet effet, la descente de Grok dans la folie du génocide blanc pourrait nous rappeler que les chatbots ne sont pas des êtres omniscients, mais bien des produits créés par des personnes, et que ces personnes choisissent la façon dont elles évaluent leurs réponses.

La manipulation de xAI par Grok a peut-être eu l'effet inverse, mais quoi qu'il en soit, les ficelles ont été tirées de manière assez insidieuse. Après tout, xAI affirme construire une « IA à la recherche de la vérité maximale ». Mais cela signifie-t-il la vérité qui convient à la vision du monde d'employés aléatoires et chaotiques, ou au fondateur extraordinairement puissant de xAI ?

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd