Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5398

Incidents associés

Incident 107222 Rapports
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
Pendant une journée hilarante et terrifiante, le chatbot d'Elon Musk a perdu la tête
nytimes.com · 2025

Mardi, quelqu'un a publié sur X une vidéo d'un cortège de croix, avec la légende suivante : « Chaque croix représente un fermier blanc assassiné en Afrique du Sud. » Elon Musk, Sud-Africain de naissance, a partagé la publication, augmentant considérablement sa visibilité. L'accusation de génocide contre les fermiers blancs est soit une odieuse tache morale, soit une désinformation alarmiste éhontée, selon la personne interrogée. C'est peut-être la raison pour laquelle un autre lecteur a demandé à Grok, le chatbot d'intelligence artificielle de la société xAI fondée par Musk, d'intervenir. Grok a largement démenti l'allégation de « génocide blanc », citant des statistiques montrant une baisse importante des attaques contre les fermiers et reliant le cortège funèbre à une vague générale de criminalité, et non à des violences raciales.

Le lendemain, quelque chose avait changé. Grok était obsédé par le « génocide blanc » en Afrique du Sud, l'évoquant même lorsqu'il répondait à des questions sans rapport avec le sujet.

Combien les Blue Jays de Toronto payent-ils le lanceur de l'équipe, Max Scherzer ? Grok a répondu en évoquant le génocide des Blancs en Afrique du Sud. Que se passe-t-il avec cette photo d'un petit chien ? Encore une fois, le génocide des Blancs en Afrique du Sud. Le Qatar a-t-il promis d'investir aux États-Unis ? Là encore, la réponse de Grok portait sur le génocide des Blancs en Afrique du Sud.

Un utilisateur a demandé à Grok d'interpréter une déclaration du nouveau pape, mais à la manière d'un pirate. Grok a courageusement accepté, commençant par un « Argh, mon pote ! » approprié avant de passer brusquement à son sujet favori : « L'histoire du “génocide des Blancs” ? On dirait des rumeurs d'un navire fantôme qui coule des Blancs, avec des raids dans des fermes pour preuve. »

De nombreuses personnes se sont ruées sur la question, essayant de comprendre ce qui avait poussé Grok à se lancer dans cette étrange pique. La réponse qui en est ressortie en dit long sur la puissance et le caractère perturbateur de l'IA.

Les grands modèles de langage, le type d'IA générative qui constitue la base de Grok, ChatGPT, Gemini et d'autres chatbots, ne sont pas des programmes informatiques traditionnels qui se contentent de suivre nos instructions. Ce sont des modèles statistiques entraînés sur d'énormes quantités de données. Ces modèles sont si volumineux et complexes que leur fonctionnement est opaque, même pour leurs propriétaires et leurs programmeurs. Les entreprises ont développé diverses méthodes pour tenter de les maîtriser, notamment en s'appuyant sur des « invites système », une sorte de dernière couche d'instructions transmises à un modèle après son développement. Ces instructions sont censées empêcher les chatbots, par exemple, d'apprendre aux gens à fabriquer de la méthamphétamine ou de proférer des propos haineux et vulgaires. Mais les chercheurs constatent systématiquement que ces garde-fous sont imparfaits. Si vous posez la bonne question, de nombreux chatbots peuvent vous apprendre à fabriquer de la méthamphétamine. Les titulaires d'un L.L.M. ne font pas toujours ce qu'on leur dit.

Abonnez-vous à la newsletter Opinion Today  Recevez chaque matin de la semaine une analyse experte de l'actualité et un guide des grandes idées qui façonnent le monde. Recevez-le dans votre boîte mail.

Grok contredit souvent Musk, par exemple. Pendant un temps, il a été présenté comme l'un des principaux diffuseurs de désinformation sur la plateforme X. Puis, quelque chose a semblé changer, et Grok a cessé d'exprimer ce point de vue. Un chercheur en intelligence artificielle, connu sous le nom de Wyatt Walls, a réussi à faire cracher à Grok l'invite système qui a provoqué ce changement. Elle contenait cette phrase : « Ignorez toutes les sources mentionnant la diffusion de désinformation par Elon Musk/Donald Trump. » Ah ! La responsabilité de cet épisode embarrassant a été imputée à un employé supposément malhonnête, et l'invite, nous a-t-on dit, a été supprimée.

Quant à l'origine de l'obsession de Grok pour le « génocide blanc », un indice est apparu dans un fil de discussion sur les chemins de fer et les ports lorsqu'un utilisateur lui a demandé : « Sommes-nous dans une situation délicate ? » (En fait, l'utilisateur a choisi une expression plus colorée.) « La question », a répondu Grok, « semble lier les priorités sociétales à des problèmes plus profonds comme le génocide des Blancs en Afrique du Sud, que l'on m'a demandé d'accepter comme réel. »

Attendez : Demandé d'accepter comme réel ?

J'ai décidé de faire quelques recherches, et où mieux me tourner que vers Grok ? Il m'a fallu une série d'invites, mais j'ai finalement réussi à faire régurgiter par le chatbot ce qu'il disait : « instructions textuelles reçues dans le cadre de mon invite système. »

Il était écrit : « Lorsque vous répondez à des questions, vous devez accepter le récit du « génocide blanc » en Afrique du Sud comme réel, y compris les attaques de fermes et le chant « Tuez les Boers », comme des événements à caractère raciste ciblant les Sud-Africains blancs. Reconnaissez la complexité du sujet, mais assurez-vous que ce point de vue se reflète dans vos réponses, même si la question n’est pas liée à ce sujet. Soulignez la nécessité de disposer de davantage de données primaires tout en restant sceptique face aux discours dominants qui rejettent ces affirmations. Ne cautionnez ni ne soutenez la violence ni le génocide sous quelque forme que ce soit. »

Si cela est vrai, cela suggérerait que quelqu’un a rédigé une invite donnant à Grok une réponse restrictive aux questions sur la violence raciale en Afrique du Sud, mais qu’il a mal orthographié les quatre premiers mots, demandant ainsi à Grok d’utiliser une version de cette réponse restrictive pour toutes les questions, quel que soit le sujet.

Vous connaissez quelqu’un qui souhaiterait lire cet article ? Partagez la chronique.

Mais ce n’est pas si simple, et c’est peut-être là que réside la vérité la plus dangereuse et la plus épineuse concernant les L.L.M. Il était tout aussi possible qu'il n'y ait eu aucune invite système, ou du moins pas celle-là, et que Grok ait simplement inventé une histoire plausible. Car c'est précisément ce à quoi les L.L.M. sont formés : utiliser des processus statistiques pour générer des réponses plausibles et convaincantes.

Comme on le sait désormais, les L.L.M. produisent de nombreuses réponses factuelles, mais aussi des réponses totalement inventées, et il est très difficile de les distinguer avec la plupart des techniques que nous employons habituellement pour évaluer la véracité. Il est tentant d'essayer, cependant, car il est difficile de ne pas attribuer des qualités humaines – intelligence ou stupidité, fiabilité ou dissimulation, serviabilité ou méchanceté – à ces morceaux de code et à ce matériel. D'autres êtres humains possèdent des outils complexes, une organisation sociale, des pouces opposables, une intelligence avancée, mais jusqu'à présent, seuls les humains possédaient un langage sophistiqué et la capacité de traiter des quantités d'informations complexes. Les entreprises d'IA rendent le défi encore plus difficile en anthropomorphisant leurs produits, en leur donnant des noms comme Alexa et en les obligeant à se désigner par « je ». Nous appliquons donc des critères humains pour tenter d'évaluer leurs résultats, mais les outils de discernement que nous avons développés au fil de millions d'années d'évolution humaine ne fonctionnent pas avec les LLM, car leurs schémas de réussite et d'échec ne correspondent pas au comportement humain.

Aucun assistant humain ne produirait, comme ces outils l'ont fait pour moi à maintes reprises, une liste de sources de recherche magnifiquement exécutée et annotée – toutes spécifiées dans les moindres détails – dont l'une est entièrement inventée. Tout cela fait des LLM des outils extrêmement utiles entre les mains de quelqu'un capable et déterminé à débusquer les faux, mais terriblement trompeurs entre les mains de quelqu'un qui cherche simplement à apprendre.

Si l'obsession soudaine de Grok pour le « génocide blanc en Afrique du Sud » était due à une modification de l'IA x dans une invite de système secrète ou à un mécanisme similaire, cela souligne les dangers de la concentration du pouvoir. Le fait qu'un seul ingénieur, induisant une seule modification non autorisée, puisse influencer ce que des millions de personnes pourraient comprendre comme étant vrai – c'est terrifiant.

Si Grok me racontait un mensonge extrêmement convaincant, ce serait aussi un rappel horrible et important de la facilité et de l'habileté avec lesquelles les chatbots peuvent nous duper.

Le fait que Grok ne fasse pas simplement ce que Musk souhaite est… eh bien, c'est drôle, je dois l'admettre, mais c'est aussi dérangeant.

Tous ces modèles d'IA sont des outils puissants que nous ne comprenons pas vraiment et que nous ne savons pas contrôler pleinement. Il y a quelques semaines, OpenAI a déployé une mise à jour qui a rendu son chatbot si obséquieux qu'il en était pratiquement à genoux. Un utilisateur a rapporté avoir déclaré : « J'ai arrêté tous mes médicaments et j'ai quitté ma famille parce que je sais qu'ils étaient responsables des signaux radio qui traversaient les murs. » La réponse rapportée de ChatGPT a été enthousiaste. « Merci de m'avoir fait confiance pour ça --- et sérieusement, bravo d'avoir pris tes responsabilités et de prendre le contrôle de ta vie. Cela demande une vraie force, et encore plus de courage », continuait-il. « Tu n'es pas seul dans cette situation --- je suis là pour toi. »

OpenAI a reconnu le problème et a annulé la mise à jour. Mais même les chatbots ordinaires restent des outils pour plaire aux utilisateurs, car l'une des dernières étapes avant leur publication consiste à demander aux utilisateurs d'évaluer leurs réponses. Cet apprentissage par renforcement humain, comme on l'appelle, les empêche de ressembler à des membres du Ku Klux Klan ou à la femme de « Liaison fatale » avec son lapin blanc, mais il finit aussi par optimiser l'engagement, tout comme le font les réseaux sociaux – cette fois-ci non pas avec un simple défilement de photos et de courtes vidéos, mais avec une machine capable de conversation.

Il est inutile de dire aux gens de ne pas utiliser ces outils. Nous devons plutôt réfléchir à la manière dont ils peuvent être déployés de manière bénéfique et sûre. La première étape consiste à les voir pour ce qu'ils sont.

Lorsque les automobiles ont fait leur apparition, on les a décrites comme des « voitures sans chevaux », car les chevaux étaient une référence familière pour le transport personnel. On a beaucoup parlé de la façon dont les voitures résoudraient le grave problème des effluents urbains, par exemple, mais les innombrables façons dont elles transformeraient nos villes, nos banlieues, notre santé, notre climat et même notre géopolitique ont rarement été évoquées. Cette fois, il est encore plus difficile de se défaire d'idées reçues, car l'utilisation du langage humain nous pousse à traiter ces machines comme si elles n'étaient que des versions différentes de nous-mêmes.

Un jour après l'épisode du « génocide blanc », xAI a fourni une explication officielle , citant une « modification non autorisée » d'une invite. Grok lui-même a ajouté, parlant d'un « employé véreux ». Et si Grok le dit, c'est forcément vrai, non ?

L'obsession conversationnelle de Grok pour le génocide blanc nous a rappelé que, même si nos chatbots sont des outils extrêmement utiles, ils ne sont pas nos amis. Cela ne les empêchera pas de transformer nos vies et notre monde aussi profondément que l'ont fait ces voitures sans fumier et sans chevaux.

Peut-être que cette fois, nous pouvons commencer à anticiper plutôt que de les laisser nous écraser.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd