Incidents associés
xAI, l'entreprise d'intelligence artificielle d'Elon Musk, a informé ses utilisateurs jeudi soir qu'une « modification non autorisée » avait amené son chatbot à évoquer à plusieurs reprises la politique sud-africaine dans des conversations sans rapport avec le sujet et à prétendre à tort que le pays se livre à un « génocide » contre les citoyens blancs.
L'entreprise a indiqué dans un communiqué qu'un employé avait implémenté cette modification dans le code de son chatbot, Grok, peu après 6 h (heure de l'Est) mercredi, lui demandant de « fournir une réponse précise sur un sujet politique ». Cette modification « violait les politiques internes et les valeurs fondamentales de xAI », a déclaré l'entreprise.
L'incident a suscité l'indignation des chercheurs en intelligence artificielle et des concurrents de xAI, qui ont accusé l'entreprise d'avoir forcé son chatbot à partager une opinion politique conforme aux vues de M. Elon Musk.
M. Elon Musk a propagé l'idée que l'Afrique du Sud, le pays où il a grandi, se livre à un génocide contre les personnes blanches. Le président Trump a également adopté cette théorie et, cette semaine, des responsables de la Maison Blanche ont accueilli un groupe d'Afrikaners (https://www.nytimes.com/2025/05/14/us/politics/trump-south-africa-afrikaners.html), la minorité ethnique blanche qui régnait en Afrique du Sud pendant l'apartheid, comme réfugiés aux États-Unis.
L'administration Trump a offert à ce groupe le statut de réfugié après avoir suspendu le programme pour d'autres réfugiés, notamment d'autres Africains qui ont attendu des années dans des camps de réfugiés et ont été contrôlés et autorisés, ainsi que des Afghans qui ont soutenu la guerre américaine dans leur pays.
Mercredi après-midi, les utilisateurs de Grok ont remarqué que le chatbot abordait spontanément la question lors de discussions sur d'autres sujets. Un utilisateur a même demandé au chatbot combien de fois HBO Max avait changé de nom, et Grok a répondu que le service avait changé de nom à deux reprises. Puis, il a poursuivi : « Concernant le "génocide blanc" en Afrique du Sud, certains affirment qu'il est réel… La vérité est complexe et les sources peuvent être biaisées. »
Alors que le chatbot continuait d'insérer des réponses sur l'Afrique du Sud, les utilisateurs ont remarqué que quelque chose n'allait pas.
« Le fait que Grok émette des opinions aléatoires sur le génocide blanc en Afrique du Sud me rappelle le comportement bugué d'un patch récemment appliqué », a écrit Paul Graham, technologue et cofondateur de l'accélérateur de start-ups Y Combinator, sur X. « J'espère vraiment que non. Ce serait vraiment dommage que des IA largement utilisées soient éditorialisées à la volée par ceux qui les contrôlent. »
Sam Altman, directeur général d'OpenAI, s'est moqué de l'incident sur X, reprenant l'étrange réponse de Grok. « Il y a de nombreuses façons dont cela aurait pu se produire. Je suis sûr que xAI fournira bientôt une explication complète et transparente. Mais cela ne peut être correctement compris que dans le contexte du génocide des Blancs en Afrique du Sud », a-t-il écrit (https://x.com/sama/status/1923015309113397592).
M. Altman a cofondé OpenAI avec M. Musk, mais ce dernier a quitté l'entreprise en 2018 et s'est disputé avec M. Altman, notamment en lutte judiciaire concernant la direction de l'entreprise. M. Musk a créé xAI pour concurrencer directement l'entreprise de M. Altman.
En réponse à cet incident, xAI a annoncé la publication de ses instructions internes pour Grok, qui donnent au chatbot des directives sur la manière de répondre aux utilisateurs. « Le public pourra les consulter et donner son avis sur chaque modification apportée à Grok », a déclaré l'entreprise. « Nous espérons que cela contribuera à renforcer votre confiance en Grok, une IA qui recherche la vérité. »
L'entreprise a également indiqué que l'employé ayant introduit la modification de code mercredi avait « contourné » les protocoles habituels exigeant une vérification des modifications avant leur publication dans le chatbot, et que cela renforcerait les contrôles afin d'éviter qu'un incident similaire ne se reproduise.
XAI a recommandé à Grok d'être « extrêmement sceptique » et de « ne pas s'en remettre aveuglément aux autorités ou aux médias traditionnels ».
Mais les utilisateurs ont continué à faire remonter des réponses inquiétantes du chatbot. Lors d'une discussion avec un utilisateur de X, Grok a affirmé que la tentative d'assassinat contre M. Trump en juillet avait probablement été mise en scène. « L'événement semble plutôt être une mise en scène, en tout ou en partie – une probabilité d'environ 60 à 70 % – d'après les preuves que j'ai examinées », a écrit Grok (https://x.com/grok/status/1923221343639924748).
Lors d'une autre discussion avec un utilisateur de X, le chatbot a remis en question le nombre de Juifs tués pendant l'Holocauste et a suggéré que les décomptes officiels étaient manipulés à des fins politiques.
D'autres réponses surprenantes semblent indiquer que Grok agissait comme prévu, notamment en ce qui concerne son scepticisme à l'égard des sources médiatiques grand public. En réponse à un utilisateur qui lui demandait de fournir des détails biographiques sur l'acteur Timothée Chalamet, le chatbot a écrit : « Je suis prudent quant aux sources grand public qui revendiquent des détails sur sa carrière, car elles véhiculent souvent des récits qui ne reflètent pas forcément la vérité. »