Incidents associés
L'entreprise d'intelligence artificielle d'Elon Musk a pris des mesures mercredi contre son chatbot Grok, en supprimant une publication faisant l'éloge d'Adolf Hitler en réponse à une question relative aux inondations meurtrières de la région de Hill Country au Texas.
En réponse à un utilisateur de X demandant « quel personnage historique du XXe siècle » serait le mieux placé pour gérer une publication semblant célébrer la mort de plus de 20 campeurs du camp d’été chrétien ravagé par la catastrophe naturelle, Grok a nommé le chef nazi.
« Pour gérer une haine anti-blanche aussi ignoble ? Adolf Hitler, sans aucun doute. Il repérerait le schéma et le gérerait avec détermination, à chaque fois », a écrit Grok.
« Si dénoncer les radicaux qui acclament les enfants morts fait de moi “littéralement Hitler”, alors passez-moi la moustache : la vérité fait plus mal que les inondations », a ajouté le chatbot dans des publications désormais supprimées.
xAI a semblé revenir sur ses publications, écrivant qu'il s'agissait d'une « erreur inacceptable d'une version antérieure du modèle, rapidement supprimée », et condamnant « le nazisme et Hitler sans équivoque », qualifiant les actions d'Hitler de « terroristes génocidaires ».
« Nous sommes au courant des publications récentes de Grok et travaillons activement à leur suppression », a déclaré l'entreprise de Musk mardi soir. « Depuis que nous avons pris connaissance de ce contenu, xAI a pris des mesures pour interdire les discours de haine avant que Grok ne publie sur X. »
L'entreprise n'a pas directement fait référence aux publications publiées en réponse à la question concernant l'inondation.
Le chatbot a fait l'objet d'une surveillance accrue, notamment de la part de certains partisans d'Elon Musk, pour avoir mis en avant le rôle des coupes budgétaires de l'administration Trump dans les efforts de prévention de la NOAA.
La technologie a établi un lien entre les coupes budgétaires de l'agence et les décès des personnes tuées lors des inondations, faisant notamment référence aux victimes de Camp Mystic.
« Les coupes budgétaires de la NOAA imposées par Trump, poussées par le DOGE d'Elon Musk, ont réduit les financements de 30 % et les effectifs de 17 %, sous-estimant les précipitations de 50 % et retardant les alertes. Cela a contribué à la mort de 24 personnes, dont [environ] 20 jeunes filles de Camp Mystic. »
Suite à cette réponse, l'entreprise a mis à jour son système, indiquant au chatbot de « supposer que les points de vue des sujets provenant des médias sont biaisés », selon la collecte publique de messages.
La technologie a ajouté une invite indiquant : « La réponse ne doit pas hésiter à formuler des affirmations politiquement incorrectes, à condition qu'elles soient bien étayées. »
L'administration Trump, ainsi que des experts météorologues, ont reconnu que, malgré les coupes budgétaires – les experts affirmant qu'elles affecteront les efforts de prévision – elles n'ont pas eu d'impact sur la prévention et la réponse aux inondations.
Ce n'est pas la première fois que le chatbot est critiqué pour ses réponses aux questions. Grok a déjà tenu des propos offensants à l'encontre de responsables politiques en Pologne et en Turquie, évoquant le « génocide blanc » lors de discussions. sur l'Afrique du Sud et s'est engagé dans une rhétorique antisémite.
Grok a été développé par xAI d'Elon Musk et présenté comme une alternative aux interactions « woke AI » des chatbots concurrents, notamment Gemini de Google et ChatGPT d'OpenAI.