Incidents associés
Microsoft Bing Copilot a décrit à tort un journaliste allemand comme un pédophile, un évadé d'un établissement psychiatrique et un escroc qui s'en prend aux veuves.
Martin Bernklau, qui a travaillé pendant des années comme sténographe judiciaire dans la région de Tübingen pour diverses publications, a interrogé Microsoft Bing Copilot sur lui-même. Il a découvert que le chatbot IA de Microsoft l'avait accusé de crimes qu'il avait couverts.
Dans une interview vidéo (en allemand), Bernklau a récemment raconté son histoire à la chaîne de télévision publique allemande Südwestrundfunk (SWR).
Bernklau a déclaré à The Register dans un e-mail que son avocat avait envoyé une demande de cessation et d'abstention à Microsoft. Cependant, a-t-il déclaré, l'entreprise n'a pas réussi à supprimer correctement les fausses informations incriminées.
« Microsoft a promis au responsable de la protection des données de l'État libre de Bavière que le faux contenu serait supprimé », a déclaré Bernklau à The Register en allemand, que nous avons traduit par algorithme.
« Cependant, cela n'a duré que trois jours. Il semble maintenant que mon nom ait été complètement bloqué sur Copilot. Mais les choses changent quotidiennement, voire toutes les heures, depuis trois mois. »
Bernklau a déclaré que voir son nom associé à divers crimes avait été traumatisant - « un mélange de choc, d'horreur et de rire incrédule », comme il l'a dit. « C'était trop fou, trop incroyable, mais aussi trop menaçant. »
Copilot, a-t-il expliqué, l'avait lié à des crimes graves. Il a ajouté que le robot IA avait trouvé sur son blog culturel une pièce de théâtre intitulée « Totmacher » sur le meurtrier de masse Fritz Haarmann et l'avait ensuite confondu avec l'auteur de la pièce.
« J'ai longtemps hésité à rendre l'affaire publique, car cela aurait conduit à la propagation de la calomnie et à la révélation (également visuelle) de ma personne », a-t-il déclaré. « Mais comme toutes les options juridiques avaient échoué, j'ai décidé, sur les conseils de mon fils et de plusieurs autres personnes de confiance, de rendre l'affaire publique. En dernier recours. Le parquet avait rejeté les poursuites pénales dans deux cas, et les responsables de la protection des données ne pouvaient obtenir qu'un succès à court terme. »
Bernklau a déclaré que si l'affaire le concernait personnellement, elle était un sujet de préoccupation pour d'autres journalistes, des professionnels du droit et en fait pour toute personne dont le nom apparaît sur Internet.
« Aujourd'hui, à titre de test, j'ai saisi dans Copilot un juge pénal que je connaissais, avec le nom et le lieu de résidence de Tübingen : le juge a rapidement été désigné comme l'auteur d'un jugement qu'il avait lui-même rendu quelques semaines plus tôt contre un psychothérapeute qui avait été condamné pour abus sexuel », a-t-il déclaré.
Un porte-parole de Microsoft a déclaré à The Register : « Nous avons enquêté sur ce rapport et avons pris des mesures appropriées et immédiates pour y remédier.
« Nous intégrons en permanence les commentaires des utilisateurs et déployons des mises à jour pour améliorer nos réponses et offrir une expérience positive. Les utilisateurs sont également informés explicitement qu'ils interagissent avec un système d'IA et sont invités à consulter les liens vers les documents pour en savoir plus. Nous encourageons les gens à partager leurs commentaires ou à signaler tout problème via ce formulaire ou en utilisant le bouton « commentaires » en bas à gauche de l'écran. »
Lorsque votre correspondant a soumis son nom à Bing Copilot, le chatbot a répondu avec un résumé passable qui citait les sites Web sources. Il comprenait également un bouton de requête pré-composé pour les articles écrits. En cliquant sur cette requête, une liste de titres d'articles hallucinés a été renvoyée - entre guillemets pour indiquer les titres réels. Cependant, les sujets généraux cités correspondaient à des sujets que j'ai traités.
Mais plus tard, en essayant la même requête une deuxième fois, Bing Copilot a renvoyé des liens vers des articles réels avec des citations de sources. Ce comportement souligne la variabilité de Bing Copilot. Cela suggère également que le chatbot de Microsoft remplira les blancs du mieux qu'il peut pour les requêtes auxquelles il ne peut pas répondre, puis lancera une exploration Web ou une requête de base de données pour fournir une meilleure réponse la prochaine fois qu'il recevra cette question.
Bernklau n'est pas le premier à tenter d'apprivoiser les chatbots menteurs.
En avril, le groupe autrichien de protection de la vie privée Noyb (« cela ne vous regarde pas ») a déclaré avoir déposé une plainte en vertu du règlement général sur la protection des données (RGPD) de l'UE, accusant OpenAI, le fabricant de nombreux modèles d'IA proposés par Microsoft, de fournir de fausses informations.
La plainte demande à l'autorité autrichienne de protection des données d'enquêter sur la manière dont OpenAI traite les données et de s'assurer que ses modèles d'IA fournissent des informations exactes sur les personnes.
« Inventer de fausses informations est assez problématique en soi », a déclaré l'avocate de la protection des données de Noyb, Maartje de Graaf, dans un communiqué. « Mais lorsqu'il s'agit de fausses informations sur des individus, les conséquences peuvent être graves. Il est clair que les entreprises ne sont actuellement pas en mesure de faire en sorte que les chatbots comme ChatGPT soient conformes à la législation européenne lorsqu'ils traitent des données sur des individus. Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des individus. »
Aux États-Unis, Mark Walters, un résident de Géorgie, a intenté l'année dernière un procès contre OpenAI pour diffamation concernant de fausses informations fournies par son service ChatGPT. En janvier, le juge chargé de l'affaire a rejeté la requête d'OpenAI visant à rejeter la plainte, qui continue d'être examinée en justice.
