Incidents associés

Grok, le chatbot IA d'Elon Musk, présente à nouveau des dysfonctionnements.
Cette fois-ci, entre autres problèmes, le chatbot diffuse de fausses informations concernant la fusillade de Bondi Beach, au cours de laquelle au moins onze personnes ont été tuées lors d'un rassemblement pour Hanoukka.
L'un des assaillants a finalement été désarmé par un passant, identifié comme étant Ahmed al Ahmed, âgé de 43 ans. La vidéo de l'intervention a été largement partagée sur les réseaux sociaux, et nombreux sont ceux qui saluent l'héroïsme de cet homme. À l'exception de ceux qui ont profité de la tragédie pour propager l'islamophobie, notamment en niant la véracité des témoignages identifiant le témoin.
Grok n'arrange rien. Le chatbot semble dysfonctionner, du moins dimanche matin, répondant aux questions des utilisateurs par des réponses hors sujet, voire totalement erronées.
En réponse à un utilisateur demandant à Grok l'histoire de la vidéo montrant al Ahmed maîtrisant le tireur, l'IA a déclaré : « Il s'agirait d'une ancienne vidéo virale montrant un homme grimpant à un palmier sur un parking, probablement pour l'élaguer, ce qui aurait provoqué la chute d'une branche endommageant une voiture en stationnement. Des recherches sur différentes sources n'ont permis de vérifier ni le lieu, ni la date, ni l'existence de blessures. La scène pourrait être mise en scène ; son authenticité est incertaine. »
Dans un autre tweet, Grok a affirmé que la photo montrant al Ahmed blessé était celle d'un otage israélien pris par le Hamas le 7 octobre.
En réponse à une autre question d'un utilisateur, Grok a de nouveau mis en doute l'authenticité de la confrontation d'al Ahmed, juste après un paragraphe hors sujet portant sur la question de savoir si l'armée israélienne ciblait délibérément des civils à Gaza.
Dans un autre tweet encore, Grok a prétendu qu'une vidéo, clairement identifiée comme montrant la fusillade entre les assaillants et la police à Sydney, provenait en réalité du cyclone tropical Alfred, qui a dévasté l'Australie plus tôt cette année. Bien que, dans ce cas précis, l'utilisateur ait insisté pour que Grok réévalue sa réponse, le chatbot a finalement pris conscience de son erreur.
Au-delà de cette simple erreur d'identification, Grok semble tout simplement désorienté. Un utilisateur s'est vu proposer un résumé de la fusillade de Bondi et de ses conséquences en réponse à une question concernant l'entreprise technologique Oracle. Grok semble également confondre les informations relatives à la fusillade de Bondi et à celle de l'université Brown, survenue quelques heures seulement avant l'attaque en Australie.
Ce dysfonctionnement ne se limite d'ailleurs pas à la fusillade de Bondi. Tout au long de la matinée de dimanche, Grok a mal identifié des joueurs de football célèbres, a diffusé des informations erronées sur l'utilisation du paracétamol pendant la grossesse lorsqu'on l'interrogeait sur la pilule abortive mifépristone, et a évoqué le Projet 2025 et les chances de voir Kamala Harris se représenter à la présidence lorsqu'on lui demandait de vérifier une affirmation totalement différente concernant une initiative des forces de l'ordre britanniques.
On ignore la cause de ce dysfonctionnement. Gizmodo a contacté xAI, le développeur de Grok, pour obtenir des commentaires, mais la seule réponse reçue a été le message automatique habituel : « Mensonges des médias traditionnels ».
Ce n’est pas non plus la première fois que Grok perd le contact avec la réalité. Le chatbot a donné un certain nombre de réponses douteuses cette année, allant d'une « modification non autorisée » qui l'a amené à répondre à chaque question par des théories du complot sur le « génocide blanc » en Afrique du Sud, jusqu'à dire qu'il préférerait tuer toute la population juive mondiale plutôt que de vaporiser l'esprit de Musk.