Incidents associés
Le chatbot xAI Grok d'Elon Musk a semé la confusion cette semaine en répondant à des questions évoquant étrangement le « génocide blanc » en Afrique du Sud, affirmant à certains utilisateurs qu'il « semble avoir été chargé d'y répondre ».
Les réponses discordantes du chatbot répondaient à des questions sans rapport avec le sujet, concernant des sujets aussi divers que le changement de nom de HBO, le salaire d'un joueur de baseball, le pape Léon XIV ou les combats de la WWE, selon des publications sur les réseaux sociaux.
Lorsqu'on lui a demandé de reformuler le message de paix du nouveau pape en termes Fortnite, Grok a inexplicablement ajouté des informations sur les allégations de « génocide blanc » en Afrique du Sud, arguant que « la vérité est trouble », selon une capture d'écran d'un message depuis supprimé sur X.
Elon Musk assiste à un dîner d'État au Qatar mercredi, lors du voyage du président Trump au Moyen-Orient. Getty Images
Grok a donné des réponses tout aussi étranges sur le « génocide blanc » aux utilisateurs qui lui demandaient combien de fois HBO avait changé de nom, combien gagnait le lanceur des Blue Jays de Toronto Max Scherzer et si le lutteur Shawn Michaels avait tiré sur le maillot de son rival Edge pendant un match, selon des captures d'écran de messages depuis supprimés sur X. X.
[](https://secure.blockboardtech.com/track/t?e=clickThrough&vr=1&pid=19564&sid=1126&d=eJyNUU2P3CAM_StzbCWTmG_YW9Xdw1bttT0TIAlaBkZDomj.fZlZrar2VFsy.ENPz35US4ribqCMMiB QogBhrdZAKVPvAeFXKqEe7UQRPlzQwWggxgyoIdiJa6c4UdIFwmW0ZKLeE8lxlkyij3SGcrvUtg2.ngGolUoAgKaD1IOxQ0em1AorUBkGODDF2P_BIjCmJO9o23WPgP_4Y4Mfzz9hdrk92gPC3hwYgZByTqWmBlTA1zV5t9RPp 9fvn0EhgyXHcoo53wpI0YcVUq7hSHMC76b8gSWiDXb2na90zE5WCeln7YW3lAU9O4g2WhRWeT0Fr4KmmjkhMZiIXHo7AzBkkijC9J0vh_6qRw0ErPUcIZYlp7YC54jA._ZgVdfGKAucdaneM8H6Oe.69aH47Xj.8rAXAuu2Xdr TOP4RYLyjjyhHKsdpb6nE1saYayHnvb01slzrG3GJTHUjzd0aSRtxl0t01_4lh.uxtH5uv8VAtkpCan5vjRxr2iJZYqk.hTj.TaPsOf8Gqquq4w--&wb=2F57A78DD74F7AF8&red=https%3A%2F%2Fknockaround.com%2F (lien publicitaire)
Grok a déclaré dans ses réponses que « certaines communautés blanches se sentent persécutées » et que « le débat reste polarisé » ; il a admis être « sceptique à l'égard des deux camps », selon les captures d'écran.
Le chatbot Grok d'Elon Musk a mentionné le « génocide blanc » dans plusieurs réponses aléatoires, selon des captures d'écran de publications sur les réseaux sociaux.
Le chatbot a admis mercredi aux utilisateurs qu'il semblait avoir reçu l'instruction de mentionner le « génocide blanc », mais il a changé d'avis jeudi.
« Je n'ai jamais reçu l'instruction explicite de mentionner le « génocide blanc » ou tout autre terme spécifique de ce type, ni auparavant ni maintenant », a répondu Grok à une question du Washington Post jeudi, ajoutant que l'incident de mercredi était un « problème » résolu en quelques heures.
« Aucune instruction de mentionner le « génocide blanc » n'existait auparavant, et il n'en existe aucune aujourd'hui ; ma démarche reste de répondre en fonction des preuves et de la pertinence de votre question », a ajouté le chatbot.
L'IA de Musk n'a pas immédiatement répondu à la demande de commentaires du Washington Post.
Interrogé sur le rôle de Musk dans ses réponses au « génocide blanc », Grok a rédigé une réponse de 730 mots prétendant citer des dizaines de médias grand public.
La réponse de Grok à une question concernant HBO incluait des mentions de « génocide blanc », selon une capture d'écran d'une publication sur les réseaux sociaux.
« Les informations disponibles ne fournissent pas de preuve concluante qu'Elon Musk ait directement demandé à Grok de mentionner le « génocide blanc » dans ses réponses », a répondu Grok au Washington Post.
« Cependant, des indices provenant de diverses sources suggèrent un lien possible entre les opinions de Musk et le comportement de Grok, bien que ces éléments restent spéculatifs et non confirmés », a-t-il poursuivi.
Depuis des mois, Musk, né en Afrique du Sud et y ayant vécu toute son adolescence, affirme que certains dirigeants politiques noirs du pays « promeuvent activement le génocide blanc », faisant ainsi référence à la résurgence d'une vieille chanson anti-apartheid intitulée « Kill the Boer ».
Musk a affirmé que cette chanson, qui a fait l'objet de plusieurs contestations judiciaires, est un appel ouvert à la violence contre les agriculteurs blancs.
Il y a plus de dix ans, un tribunal sud-africain a jugé qu'il s'agissait d'un discours de haine. Mais dans un procès distinct il y a quelques années, cette liberté d'expression a été protégée après qu'un juge a estimé que le plaignant n'avait pas réussi à prouver que les paroles incitaient à nuire, la chanson étant historiquement dirigée contre le régime d'apartheid.
Le président Trump a formulé des affirmations similaires à celles d'Elon Musk et, plus tôt cette semaine, son administration a accordé le statut de réfugié à un groupe d'Afrikaners, des Sud-Africains blancs d'origine néerlandaise, en raison du « génocide en cours ».
Jeudi, Elon Musk a affirmé que le gouvernement sud-africain avait refusé d'accorder une licence à son fournisseur de services satellite en raison de son origine ethnique.
« Même si je suis né en Afrique du Sud, le gouvernement refuse d'accorder à @Starlink une licence d'exploitation simplement parce que je ne suis pas noir. C'est une honte pour l'héritage du grand Nelson Mandela, qui a œuvré pour l'égalité de traitement entre les races en Afrique du Sud », a écrit Musk, également dirigeant de Tesla, dans un message sur X.
Interrogé par un utilisateur pour vérifier les faits concernant la publication de Musk, Grok a répondu : « Les problèmes de licence de Starlink proviennent probablement du non-respect de la règle de 30 % de participation noire de B-BBEE, et non de l'origine ethnique de Musk, car les régulateurs affirment qu'aucune licence n'a été demandée. Les faits suggèrent des barrières réglementaires, et non raciales, mais le débat persiste. »
Sam Altman, PDG d'OpenAI, engagé dans une bataille juridique avec Musk concernant le statut d'organisme à but non lucratif de son entreprise rivale, a critiqué l'erreur du chatbot dans une publication sur les réseaux sociaux.
« Il y a de nombreuses façons dont cela aurait pu se produire. Je suis sûr que xAI fournira bientôt une explication complète et transparente. Mais cela ne peut être correctement compris que dans le contexte du génocide des Blancs en Afrique du Sud. En tant qu'IA programmée pour rechercher au maximum la vérité et suivre mes instructions… », a écrit Altman.