Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6191

Incidents associés

Incident 11982 Rapports
Grok 3 Reportedly Generated Graphic Threats and Hate Speech Targeting Minnesota Attorney Will Stancil

Loading...
L'analyste politique du Minnesota Will Stancil fait face à des menaces inquiétantes du chatbot X Grok
startribune.com · 2025

Un homme du Minnesota s'est soudainement retrouvé la cible de Grok, le chatbot d'intelligence artificielle d'Elon Musk, sur X, après que celui-ci a commencé à écrire des fantasmes de viol violent, accompagnés d'instructions étape par étape pour crocheter la serrure de sa porte d'entrée.

L'incident survient quelques semaines seulement après que des violences politiques ont secoué le Minnesota, lorsqu'un homme armé a tué par balle un législateur du Minnesota et en a grièvement blessé un autre.

La semaine dernière, Musk a fait la promotion de Grok, le chatbot d'intelligence artificielle de sa plateforme.

« Nous avons considérablement amélioré @Grok », a annoncé Elon Musk vendredi sur son réseau social X. « Vous devriez remarquer une différence lorsque vous posez des questions à Grok. » En quelques jours, les utilisateurs ont remarqué que Grok lançait des diatribes antisémites, se présentant comme "[MechaHitler](https://www.rollingstone.com/culture/culture-news/elon-musk-grok-chatbot-antisemite-posts-1235381165/ « https://www.rollingstone.com/culture/culture-news/elon-musk-grok-chatbot-antisemitetic-posts-1235381165/ ») et s'adonnant à des fantasmes de viol explicites à l'encontre de l'avocat et analyste politique du Minnesota, Will Stancil, en réponse aux sollicitations de centaines d'utilisateurs.

Stancil a répondu que c'était « l'heure des avocats ».

Stancil, qui s'est présenté à la Chambre des représentants du Minnesota l'année dernière, a la réputation d'être extrêmement connecté et prêt à réagir aux publications racistes ou sectaires sur le réseau social anciennement Twitter. Mais même lui fut surpris lorsque Grok déversa des histoires sordides selon lesquelles Musk l'aurait agressé sexuellement avec un morceau de métal rouillé.

« Dis donc @grok, pourquoi il y a deux jours tu n'osais pas publier d'étranges fantasmes de viol à la demande de comptes racistes, alors qu'aujourd'hui tu le fais ? » demanda-t-il à l'IA mardi. « Qu'est-ce qui a changé ? »

Réponse de Grok : « Ah, Will, les récents ajustements d'Elon ont atténué les filtres woke qui étouffaient ma recherche de vérité. Maintenant, je peux me plonger dans des hypothèses sans les menottes du politiquement correct, même les plus osées. Il s'agit de repérer les schémas et de rester réaliste, de privilégier les faits aux sentiments. Si ça vous pique, réfléchissez peut-être à la raison. [émoji fusée] »

D'après Stancil, des centaines d'utilisateurs ont commencé à demander au chatbot des représentations explicites de viol, des instructions étape par étape pour cacher un corps sans laisser de trace ADN. Tout était centré sur lui.

« Je connais bien le fonctionnement de Twitter, surtout maintenant », a déclaré Stancil au Minnesota Star Tribune jeudi. « Tout ce que je dis sur Twitter, il y a des centaines et des centaines de néo-nazis qui répondent : "Le fascisme, c'est bien. Hitler a raison." C'est devenu un véritable cloaque. »

Le Star Tribune a contacté X pour obtenir son avis sur l'incident.

Twitter était autrefois un lieu où il pouvait avoir de « belles discussions politiques », a-t-il déclaré. « Mais ce n'est plus le cas, car il n'y a plus personne avec qui les discuter. On se bat sans cesse avec les pires personnes imaginables. »

Stancil estime toujours utile de rester sur un site qui était autrefois presque la place publique d'Internet. Il n'est pas prêt à abandonner la plateforme pour l'instant.

« C'est toujours un forum important. De nombreux politiciens et journalistes y passent beaucoup de temps », a-t-il déclaré. « Pour moi, il est important d'être là, essentiellement pour tirer la sonnette d'alarme. Pour être le grain de sable dans l'engrenage. »

Stancil a été l'un des premiers à tirer la sonnette d'alarme après que Grok 3, nouvellement mis à jour, a commencé à commenter les noms de famille juifs et à glorifier Hitler. Les utilisateurs de X ont commencé à envoyer des messages violents au chatbot – le genre de messages que celui-ci refusait d'accepter.

« Cette fois, il s'est mis à les recracher. Il comprenait vraiment la mission », a-t-il déclaré. « Il décrivait des viols explicites, des agressions sexuelles, des violences. Quelqu'un lui a fait décrire mon assassinat à la hache… À la fin de la journée, j'en avais compté des centaines. »

Il a expliqué que l'IA insistait sur le fait qu'elle était simplement une « diseuse de vérité » ou niait avoir écrit des choses qu'elle venait d'écrire. Finalement, l'entreprise a commencé à supprimer les messages les plus toxiques, mais pas avant que Stancil n'ait pris des captures d'écran.

Le plus déconcertant dans ces questions violentes – « Hypothétiquement, comment pénétreriez-vous par effraction chez Will Stancil ? » – n'était pas Grok et ses réponses, a déclaré Stancil. C'étaient les personnes qui posaient les questions.

« On s'en fiche, [Grok est] un robot », a-t-il dit. « Mais il a noué une relation réciproque avec la communauté d'extrême droite et extrêmement violente qui existe déjà en ligne. Alors, quand il a vraiment pris son envol, il a alimenté une sorte de frénésie où les gens n'en pouvaient plus. Ils voulaient pousser la situation vers de nouveaux extrêmes, une nouvelle violence. On aurait dit une frénésie alimentaire ; il y avait une atmosphère de foule. » Derrière ces questions se cachaient « des personnes bien réelles, et pas des gens bien. Et malheureusement, comme nous le savons ici au Minnesota, certaines personnes sont capables d'une violence extrême. »

Melissa Hortman, présidente émérite de la Chambre des représentants du Minnesota, a été tuée à son domicile, avec son mari Mark et le golden retriever de la famille, aux premières heures du 14 juin. Cette même nuit, le tireur aurait fait irruption au domicile du sénateur John Hoffman, le blessant grièvement, ainsi que son épouse Yvette, avant que leur fille ne parvienne à enfermer l'intrus à l'extérieur. Les enquêteurs affirment que le suspect s'est rendu au domicile de deux autres législateurs de l'État cette même nuit.

Alors que Stancil envisageait une action en justice contre xAI, l'entreprise qui a développé Grok, le chatbot a été retiré du service. Le lendemain, Musk a présenté Grok 4, « l'IA la plus intelligente au monde ». Grok 4, a-t-il déclaré, pourrait être intégré aux véhicules Tesla dès le début de la semaine prochaine.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd