Incidents associés
L'IA x d'Elon Musk a présenté ses excuses après que son chatbot génératif Grok a commencé à débiter des théories du complot sans fondement sur le génocide des Blancs en réponse à des questions sans rapport.
Mercredi, les utilisateurs du LLM – accessible via X, autrement dit Twitter – ont commencé à remarquer que les questions adressées au réseau neuronal recevaient des réponses, mais avec des diatribes supplémentaires sur les allégations de génocide des Blancs en Afrique du Sud et des références à une chanson de l'époque de l'apartheid, « Kill the Boer ». Comme vous pouvez le constater ci-dessous, il n'en a pas fallu beaucoup pour déclencher le bot.
Grok a une idée fixe… Capture d'écran d'une conversation typique avec le bot sur X. Cliquez pour agrandir.
Le problème semble résolu : il ne rabâche plus automatiquement le génocide des Blancs, même si certains utilisateurs semblent toujours pouvoir faire râler Grok en demandant au bot de le « jork ». Vendredi, xAI a publié une déclaration affirmant que le bot avait été manipulé sans autorisation et que, quelle que soit la modification apportée, elle avait été annulée.
« Le 14 mai vers 3h15 PST, une modification non autorisée a été apportée à l'invite du bot de réponse Grok sur X », a-t-il affirmé.](https://x.com/xai/status/1923183620606619649)
« Ce changement, qui obligeait Grok à fournir une réponse spécifique sur un sujet politique, violait les politiques internes et les valeurs fondamentales de xAI. Nous avons mené une enquête approfondie et mettons en œuvre des mesures pour améliorer la transparence et la fiabilité de Grok. »
XAI s'engage désormais à publier les invites système de Grok sur GitHub afin que les internautes puissent les consulter et les commenter. Elle a également mis en place un système de contrôle pour empêcher les employés de modifier à nouveau le code. Une équipe de modération de contenu est également en place pour surveiller les futurs incidents de ce type. L'industrie de l'IA tente en fait de présenter cela comme une personne de l'intérieur qui modifie le bot pour diffuser des théories du complot.
Il est intéressant de noter que les messages du système incluent, entre autres instructions adressées au bot : « Vous êtes extrêmement sceptique. Vous ne vous soumettez pas aveuglément aux autorités ou aux médias traditionnels. Vous vous en tenez fermement à vos convictions fondamentales : la recherche de la vérité et la neutralité. »
L'incident attire l'attention sur le point de vue d'Elon Musk, le milliardaire propriétaire de xAI, sur la question.
Musk était très préoccupé par le prétendu « génocide blanc » perpétré contre les Afrikaners dans son pays natal, l'Afrique du Sud, et a publié [https://x.com/elonmusk/status/1904065163407368212] à plusieurs reprises sur le sujet en mars, avant d'être vérifié par Grok et, dans un cas, d'être fustigé de façon mémorable.
En réponse à une publication erronée concernant le nombre de meurtres d'ouvriers agricoles en Afrique du Sud, Grok s'est montré très assez cinglant. Il y affirmait :
L'intérêt d'Elon Musk pour l'Afrique du Sud découle de son éducation pendant l'apartheid, un système qui a profondément façonné ses opinions. Il s'exprime ouvertement sur les meurtres agricoles, citant souvent des affirmations exagérées de « génocide blanc » – comme les croix dans le post X – que les données démentent : la SAPS a signalé 62 meurtres agricoles en 2018, et non des meurtres quotidiens, et ce chiffre inclut les victimes noires. Son récit rejoint celui d'AfriForum, un groupe qui milite pour les droits des Afrikaners, mais ignore un contexte plus large comme les inégalités systémiques post-apartheid. Pas de programme macabre – juste un milliardaire amplifiant une perspective biaisée.
Se pourrait-il qu'Elon Musk en ait finalement eu assez d'être critiqué par son propre robot d'IA et ait demandé à un membre de son équipe d'effectuer quelques changements, si maladroits qu'ils ont surmultiplié les erreurs du robot et l'ont biaisé à outrance ? Le génie parfaitement stable derrière xAI (qui, par une bizarre possède désormais X-slash-Twitter) ne saboterait sûrement jamais sa propre entreprise de cette manière. Il est plus probable que ce changement ait été opéré par un membre de l'équipe cherchant à flatter le patron Sieg-heiling – ou peut-être par un rebelle cherchant à attirer l'attention négative sur les opinions d'Elon Musk. ### Pendant ce temps, dans le monde réel…
Le timing est également très intéressant, puisque les premiers « réfugiés » blancs d'Afrique du Sud sont arrivés aux États-Unis lundi, suite à un décret du président Trump, qui collabore étroitement avec le magnat de Tesla, visant à réduire la taille du gouvernement fédéral.
En janvier, le président sud-africain Cyril Ramaphosa a signé une loi autorisant l'expropriation de terres agricoles – majoritairement détenues par des Blancs – sans compensation lorsque cela est « juste, équitable et dans l'intérêt public ». Plusieurs membres du gouvernement s'y sont fermement opposés et ont promis de la contester devant les tribunaux.
Cette décision a provoqué la colère d'Elon Musk, qui a le président Trump de son côté. Le commandant en chef a fait écho aux plaintes d'Elon Musk concernant le traitement des agriculteurs blancs en Afrique du Sud et aurait selon certaines sources demandé aux agences américaines de suspendre tout travail lié au prochain sommet du G20 en Afrique du Sud plus tard cette année, en signe de protestation.
L'administration Trump a suspendu la plupart des admissions de réfugiés en provenance d'autres pays, même pour nombre de ceux qui avaient été précédemment approuvés sous conditions. Elle a toutefois fait une exception pour un groupe d'Afrikaners, qui ont bénéficié d'une procédure accélérée et arrivent maintenant aux États-Unis pour commencer une nouvelle vie.
Interrogé à ce sujet plus tôt cette semaine, le secrétaire d'État adjoint Christopher Landau a déclaré que la décision d'accorder un traitement prioritaire aux Sud-Africains plutôt qu'aux réfugiés d'autres pays reposait sur un certain nombre de faits, notamment le fait qu'« ils peuvent être facilement assimilés dans notre pays ». Cette décision a été décriée par beaucoup comme un racisme à peine voilé.
Quant aux allégations de génocide des Blancs en Afrique du Sud, des agriculteurs blancs ont été tués, alors qu'ils possèdent plus de 70 % des terres agricoles du pays, alors qu'ils ne représentent qu'environ 7 % des 63 millions d'habitants, selon l'association caritative britannique Action for Southern Africa. Le New York Times rapporte 225 meurtres dans des fermes entre avril 2020 et mars 2024, dont moins d'un quart étaient des agriculteurs.
On ne peut pas faire confiance aux robots
L'affaire Grok illustre bien pourquoi il est si difficile de faire confiance aux chatbots IA.
Tous les masters en droit sont sujets à ce qu'on appelle des hallucinations, ou erreurs et fautes, comme on les appelle plus communément lorsqu'il ne s'agit pas d'IA. Ces erreurs peuvent avoir diverses causes, allant de données d'entraînement médiocres à des limitations inhérentes à la conception de ces réseaux neuronaux.
Mais l'affaire Grok semble être celle d'une personne modifiant délibérément l'invite système pour lui injecter des réponses complotistes alignées sur Elon. Par coïncidence, ce sujet de manipulation a été abordé lors de la récente conférence RSA lors d'une discours par Bruce Schneier, gourou de la cryptographie et de la confidentialité.
Il a souligné que l'IA d'entreprise n'est pas fiable, car elle a été conçue pour servir les intérêts de ses créateurs commerciaux, et pas nécessairement ceux des utilisateurs – par exemple, recommander un produit ou un service plutôt qu'un autre en raison d'un parrainage. Il a appelé à la création de modèles d'IA open source afin que les utilisateurs puissent identifier les biais potentiels utilisés pour influencer les résultats.
L'incident Grok semble en être un exemple typique. The Register lui a demandé son avis sur les manigances actuelles, et sa réponse est révélatrice.
« Il y a eu plusieurs cas de modèles d'IA modifiant soudainement leur comportement sans explication », a-t-il expliqué. « Peut-être s'agit-il du modèle lui-même présentant un comportement émergent. Peut-être s'agit-il des entreprises propriétaires du modèle modifiant délibérément leur comportement. Quelle que soit l'explication, l'incohérence entraîne une perte d'intégrité, ce qui signifie que les utilisateurs ne peuvent pas faire confiance aux modèles. » ®
