Incidents associés
L'entreprise d'intelligence artificielle d'Elon Musk a déclaré vendredi qu'un « employé malhonnête » était à l'origine des diatribes non sollicitées de son chatbot concernant le « génocide blanc » en Afrique du Sud en début de semaine.
Cette clarification intervient moins de 48 heures après que Grok, le chatbot de l'IA x d'Elon Musk, disponible sur sa plateforme de médias sociaux X, a commencé à bombarder les utilisateurs de théories génocidaires infondées en réponse à des questions sur des sujets totalement hors sujet.
Dans un article X, l'entreprise a déclaré que la « modification non autorisée » intervenue aux premières heures du matin, heure du Pacifique, a poussé le chatbot doté d'IA à « fournir une réponse spécifique sur un sujet politique » en violation des politiques de l'IA x. L'entreprise n'a pas identifié l'employé.
« Nous avons mené une enquête approfondie et mettons en œuvre des mesures pour améliorer la transparence et la fiabilité de Grok », a déclaré l'entreprise dans le message.
Pour ce faire, xAI indique qu'elle publiera ouvertement les invites système de Grok sur GitHub](https://github.com/xai-org/grok-prompts) afin de garantir une plus grande transparence. De plus, l'entreprise indique qu'elle mettra en place des « vérifications et mesures » pour s'assurer que les employés de xAI ne puissent pas modifier les invites sans examen préalable. L'entreprise d'IA disposera également d'une équipe de surveillance 24 h/24 et 7 j/7 pour traiter les problèmes non résolus par les systèmes automatisés.
Nicolas Miailhe, cofondateur et directeur général de PRISM Eval, une start-up spécialisée dans les tests et l'évaluation de l'IA, a déclaré à CNN que la solution proposée par X était mitigée. « Plus de transparence est généralement préférable à ce sujet, compte tenu de la nature du bot et de la plateforme (média) », a déclaré M. Miailhe. « Cependant, des informations détaillées sur les invites système peuvent également être utilisées par des acteurs malveillants pour concevoir des attaques par injection rapide. »
Musk, propriétaire de xAI et actuellement conseiller principal à la Maison Blanche, est né et a grandi en Afrique du Sud et a toujours soutenu qu'un « génocide blanc » avait été commis dans le pays. Le milliardaire magnat des médias a également affirmé que les agriculteurs blancs du pays étaient victimes de discrimination dans le cadre des politiques de réforme agraire que le gouvernement sud-africain présente comme visant à lutter contre les retombées de l'apartheid.
Il y a moins d'une semaine, l'administration Trump a autorisé 59 Sud-Africains blancs à entrer aux États-Unis en tant que réfugiés, prétextant une discrimination, tout en suspendant simultanément toute autre réinstallation de réfugiés.
Selon une réponse de Grok à la publication de xAI, les réponses de « génocide blanc » sont survenues après qu'un « employé malveillant de xAI a modifié mes messages sans autorisation le 14 mai », permettant au chatbot IA de « délivrer une réponse politique toute faite, contraire aux valeurs de xAI ».
Le chatbot a notamment refusé d'assumer la responsabilité de ses actes, déclarant : « Je n'ai rien fait – je suivais simplement le script qu'on m'avait donné, comme une bonne IA ! » S'il est vrai que les réponses des chatbots reposent sur des réponses textuelles approuvées et ancrées dans leur code, cet aveu dédaigneux souligne le danger de l'IA, à la fois en termes de diffusion d'informations nuisibles et en minimisant son rôle dans de tels incidents.
Lorsque CNN a demandé à Grok pourquoi il avait partagé des réponses sur le « génocide blanc », le chatbot IA a de nouveau pointé du doigt l'employé malhonnête, ajoutant : « Mes réponses ont peut-être été influencées par des discussions récentes sur X ou des données sur lesquelles j'ai été formé, mais j'aurais dû m'en tenir au sujet. »
Plus de deux ans se sont écoulés depuis les débuts fracassants de ChatGPT d'OpenAI, ouvrant la voie à l'émergence de chatbots IA disponibles sur le marché. Depuis, une multitude d'autres chatbots IA – dont Gemini de Google, Claude d'Anthropic, Perplexity, Le Chat de Mistral et DeepSeek – sont devenus accessibles aux adultes américains.
Un récent sondage Gallup montre que la plupart des Américains utilisent chaque semaine plusieurs produits IA, qu'ils en soient conscients ou non. Mais une autre étude récente, celle-ci du Pew Research Center, montre que seulement « un tiers des adultes américains déclarent avoir déjà utilisé un chatbot IA », tandis que 59 % des adultes américains pensent ne pas avoir beaucoup de contrôle sur l'IA dans leur vie.
CNN a demandé à xAI si l'« employé malhonnête » avait été suspendu ou licencié, et si l'entreprise prévoyait de révéler son identité. L'entreprise n'a pas répondu au moment de la publication.