Incidents associés
Depuis plus de deux ans que l'intelligence artificielle générative a conquis le monde suite à la sortie de ChatGPT, la confiance est un problème permanent.
Hallucinations, des calculs erronés et des préjugés culturels ont altéré les résultats, rappelant aux utilisateurs qu'il y a une limite à la confiance que nous pouvons accorder à l'IA, du moins pour l'instant.
Le chatbot Grok d'Elon Musk, créé par sa startup xAI, a démontré cette semaine une source d'inquiétude plus profonde : l'IA peut être facilement manipulée par les humains.
Mercredi, Grok a commencé à répondre aux requêtes des utilisateurs en avançant de fausses allégations de « génocide blanc » en Afrique du Sud. En fin de journée, des captures d'écran de réponses similaires ont été publiées sur X, même lorsque les questions n'avaient aucun rapport avec le sujet.
Après avoir gardé le silence sur le sujet pendant plus de 24 heures, xAI a déclaré jeudi soir que le comportement étrange de Grok était dû à une « modification non autorisée » des invites système de l'application de chat, qui contribuent à la façon dont elle se comporte et interagit avec les utilisateurs. En d'autres termes, ce sont des humains qui dictaient la réponse de l'IA.
La nature de la réponse, dans ce cas, est directement liée à Musk, qui est né et a grandi en Afrique du Sud. Elon Musk, propriétaire de xAI en plus de ses fonctions de PDG chez Tesla et SpaceX, a propagé la fausse affirmation selon laquelle les violences contre certains agriculteurs sud-africains constitueraient un « génocide blanc », un sentiment que le président Donald Trump a également exprimé.
« Je pense que c'est extrêmement important en raison du contenu, de la personne qui dirige cette entreprise et de la manière dont cela suggère ou met en lumière le pouvoir de ces outils pour façonner la pensée et la compréhension du monde », a déclaré Deirdre Mulligan, professeure à l'Université de Californie à Berkeley et experte en gouvernance de l'IA.
Mulligan a qualifié l'erreur de Grok de « défaillance algorithmique » qui « détruit en profondeur » la prétendue neutralité des grands modèles linguistiques. Elle a ajouté qu'il n'y avait aucune raison de considérer le dysfonctionnement de Grok comme une simple « exception ».
Les chatbots basés sur l'IA, créés par Meta, Google et OpenAI, ne « conditionnent » pas l'information de manière neutre, mais la transmettent à travers un « ensemble de filtres et de valeurs intégrés au système », a déclaré Mulligan. La panne de Grok offre un aperçu de la facilité avec laquelle ces systèmes peuvent être modifiés pour répondre aux intérêts d'un individu ou d'un groupe.
Les représentants de xAI, Google et OpenAI n'ont pas répondu aux demandes de commentaires. Meta a refusé de commenter.
Différent des problèmes précédents
La modification non autorisée de Grok, a déclaré xAI dans sa déclaration (https://x.com/xai/status/1923183620606619649?s=46), violait « les politiques internes et les valeurs fondamentales ». L'entreprise a déclaré qu'elle prendrait des mesures pour éviter des catastrophes similaires et publierait les invites système de l'application afin de « renforcer votre confiance en Grok, une IA en quête de vérité ».
Ce n'est pas la première erreur d'IA à devenir virale en ligne. Il y a dix ans, l'application Photo de Google qualifiait à tort les Afro-Américains de gorilles. L'année dernière, Google a temporairement suspendu sa fonctionnalité de génération d'images Gemini AI après avoir admis qu'elle présentait des « inexactitudes » dans des images historiques. En 2022, le générateur d'images DALL-E d'OpenAI a été accusé par certains utilisateurs de présenter des signes de biais, ce qui a conduit l'entreprise à annoncer la mise en œuvre d'une nouvelle technique permettant aux images de « refléter fidèlement la diversité de la population mondiale ».
En 2023, 58 % des décideurs en IA d'entreprises en Australie, au Royaume-Uni et aux États-Unis ont exprimé leur inquiétude quant au risque d'hallucinations lors d'un déploiement d'IA générative, selon Forrester. L'enquête de septembre de la même année a porté sur 258 personnes.
L'ambition d'Elon Musk concernant Grok 3 est motivée par des considérations politiques et financières, selon un expert.
Des experts ont déclaré à CNBC que l'incident de Grok rappelle celui du chinois DeepSeek, devenu une sensation du jour au lendemain aux États-Unis plus tôt cette année en raison de la qualité de son nouveau modèle et du fait qu'il aurait été construit à un coût bien inférieur à celui de ses concurrents américains.
Les critiques ont déclaré que DeepSeek censure les sujets était considéré comme sensible au gouvernement chinois. Comme la Chine avec DeepSeek, Musk semble influencer les résultats en fonction de ses opinions politiques, disent-ils.
Lorsque xAI a fait ses débuts Grok en novembre 2023, Musk a déclaré que l'application était censée avoir « un peu d'esprit », « un côté rebelle » et répondre aux « questions délicates » que les concurrents pourraient esquiver. En février, xAI a accusé un ingénieur d'avoir supprimé les réponses de Grok aux questions des utilisateurs sur la désinformation, excluant ainsi les noms d'Elon Musk et de Trump.
Mais la récente obsession de Grok pour le « génocide blanc » en Afrique du Sud est plus extrême.
Petar Tsankov, PDG de LatticeFlow AI, une société d'audit de modèles d'IA, a déclaré que l'explosion de Grok était plus surprenante que celle observée avec DeepSeek, car on pourrait « s'attendre à une certaine manipulation de la part de la Chine ».
Tsankov, dont l'entreprise est basée en Suisse, a déclaré que le secteur avait besoin de plus de transparence afin que les utilisateurs puissent mieux comprendre comment les entreprises construisent et entraînent leurs modèles et comment cela influence les comportements. Il a souligné les efforts déployés par l'UE pour exiger davantage d'entreprises technologiques de faire preuve de transparence dans le cadre d'une réglementation plus large dans la région.
Sans une levée de boucliers, « nous ne parviendrons jamais à déployer des modèles plus sûrs », a déclaré Tsankov, et ce sont les citoyens qui paieront le prix fort pour avoir fait confiance aux entreprises qui les développent.
Mike Gualtieri, analyste chez Forrester, a déclaré que la débâcle de Grok ne devrait pas ralentir la croissance du nombre d'utilisateurs de chatbots, ni diminuer les investissements des entreprises dans cette technologie. Il a ajouté que les utilisateurs ont une certaine acceptation de ce genre de phénomènes.
« Qu'il s'agisse de Grok, de ChatGPT ou de Gemini, tout le monde s'y attend désormais », a déclaré Gualtieri. « On leur a expliqué que les modèles hallucinaient. On s'attend à ce que cela se produise. »
Olivia Gambelin, éthicienne en IA et auteure du livre Responsible AI, publié l'année dernière, a déclaré que si ce type d'activité de la part de Grok n'est peut-être pas surprenant, il met en évidence une faille fondamentale des modèles d'IA.
Gambelin a déclaré que cela « montre qu'il est possible, au moins avec les modèles Grok, d'ajuster à volonté ces modèles fondamentaux à usage général ».