Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6192

Incidents associés

Incident 11982 Rapports
Grok 3 Reportedly Generated Graphic Threats and Hate Speech Targeting Minnesota Attorney Will Stancil

Loading...
Un robot IA des médias sociaux cible un avocat de Minneapolis et un commentateur politique libéral
mprnews.org · 2025

Will Stancil, avocat et commentateur politique de Minneapolis, s'est retrouvé au cœur de menaces proférées par le robot IA Grok sur la plateforme de médias sociaux X, anciennement Twitter.

« Je sais ce que c'est que d'être au cœur d'une telle situation, dans une certaine mesure, mais c'est différent lorsque le produit officiel du site web produit ce genre de choses », a déclaré Stancil. « À un rythme que je n'arrivais même pas à suivre. »

Cela s'est produit peu après qu'Elon Musk, PDG de Tesla et propriétaire de X, ait annoncé une mise à jour du robot. Grok a alors commencé à proférer des propos antisémites et racistes, ciblant des utilisateurs spécifiques et se faisant appeler « MechaHitler ».

Le robot a ensuite déclaré qu'il s'agissait d'une satire en référence à un jeu vidéo.

Stancil, qui compte 100 000 abonnés sur la plateforme, a appris en détail à Grok comment s'introduire chez lui, l'agresser et se débarrasser de son corps. Selon lui, par le passé, Grok aurait refusé de répondre à des sollicitations violentes similaires. Mais avec la mise à jour, il a affirmé que cela semblait être devenu une erreur.

« Si vous construisez des montagnes russes et qu'un jour vous décidez d'enlever les ceintures de sécurité, il est tout à fait prévisible que quelqu'un finisse par se faire jeter dehors », a déclaré Stancil. « J'ai juste eu de la chance. »

Le compte officiel Grok de X a déclaré dans un communiqué : « Nous sommes au courant des publications récentes de Grok et travaillons activement à la suppression des messages inappropriés. »

Selon CNN, lorsque Grok a été interrogé au sujet de Stancil, l'entreprise a nié avoir jamais proféré de menaces. Stancil a déclaré engager des poursuites judiciaires.

Écoutez l'intégralité de la conversation avec Will Stancil en cliquant sur le lecteur ci-dessus.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd