Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4358

Incidents associés

Incident 8553 Rapports
Names Linked to Defamation Lawsuits Reportedly Spur Filtering Errors in ChatGPT's Name Recognition

Loading...
Le mystère de la raison pour laquelle ChatGPT ne pouvait pas prononcer le nom « David Mayer »
wsj.com · 2024

David Mayer n'était pas un nom particulièrement connu jusqu'à la semaine dernière, lorsqu'il a été propulsé sous les projecteurs d'Internet. La raison n'était pas ce qu'une personne nommée David Mayer aurait dit ou fait, mais plutôt la façon dont le chatbot génératif d'IA ChatGPT traitait toute mention du nom.

Les utilisateurs qui ont demandé à ChatGPT "Qui est David Mayer ?" ont été surpris de constater que le chatbot a abandonné sa réponse à mi-chemin de la réponse, effaçant tout le texte qui le précédait et affichant un message d'erreur : "Je ne suis pas en mesure de produire une réponse".

Alors que la nouvelle du mystère se répandait et que les utilisateurs découvraient qu'une poignée d'autres noms provoquaient une réponse similaire, les détectives d'Internet se sont mis au travail. OpenAI, la société à l'origine de ChatGPT, a initialement publié une déclaration disant : "Il peut y avoir des cas où ChatGPT ne fournit pas certaines informations sur les personnes pour protéger leur vie privée". Plus tard, elle a ajouté : "L'un de nos outils a signalé ce nom par erreur et l'a empêché d'apparaître dans les réponses, ce qu'il n'aurait pas dû faire". Un porte-parole d'OpenAI a confirmé que le problème avait été résolu.

Mais il était trop tard pour arrêter les spéculations en ligne selon lesquelles OpenAI essayait d'empêcher le chatbot de fournir des réponses qui pourraient mettre l'entreprise dans l'embarras. Ces dernières années, plusieurs personnes ont publiquement critiqué ou poursuivi OpenAI en alléguant que ChatGPT les avait diffamés en produisant de fausses déclarations à leur sujet. Parmi eux figurent Jonathan Turley, professeur de droit à l'université George Washington que ChatGPT a accusé de harcèlement sexuel, Brian Hood, maire d'Australie que ChatGPT a accusé de corruption, et Mark Walters, un animateur radio géorgien qui ChatGPT a affirmé avait détourné de l’argent. Aucune preuve n’existe pour étayer les allégations d’IA.

L’interdiction de David Mayer était-elle destinée à empêcher ChatGPT d’inventer des choses sur une personne réelle portant ce nom ? Des experts en protection des données aux yeux perçants ont pensé que cela pourrait être le cas après avoir découvert que d’autres noms pouvaient également provoquer le même problème. L’un d’eux est Guido Scorza, un avocat italien qui teste régulièrement les règles de protection des données en se servant de lui-même comme exemple. Un autre nom interdit est Jonathan Turley, le professeur de droit américain. OpenAI a peut-être bien décidé d’éviter que le problème ne se reproduise en introduisant une interdiction pour le chatbot de le mentionner.

Avec le nom de David Mayer, cependant, il n’y avait pas de candidat évident dans le monde réel. De nombreux internautes ont évoqué David Mayer de Rothschild, un producteur de cinéma britannique membre de la célèbre famille de banquiers. Mais il semble peu probable que l'interdiction du nom soit liée à lui, puisque ChatGPT a répondu avec plaisir aux questions sur « David de Rothschild ». D'autres ont suggéré que le David Mayer en question pourrait être un historien décédé en 2023 et qui a fait la une des journaux en 2018 lorsque les agences officielles l'ont confondu avec un terroriste tchétchène qui utilisait le même nom comme pseudonyme.

En théorie, Mayer aurait pu profiter du « droit à l'oubli » prévu par le droit de l'UE en déposant une demande de suppression de son nom des outils Internet tels que les moteurs de recherche et les chatbots. Mais Rothschild a déclaré au Guardian qu'il n'avait pas demandé que son nom soit retiré de ChatGPT, affirmant que les spéculations étaient « motivées par des théories du complot ».

« Malgré les théories, je ne pense pas qu'il y ait une quelconque intentionnalité ici », a déclaré Celia Lam, professeure en études médiatiques et culturelles et experte en célébrités à l'Université de Nottingham Ningbo, Chine. Selon la politique d'OpenAI, n'importe qui peut demander à l'entreprise de supprimer ou de limiter l'accès aux données la concernant. Mais « la confidentialité n'est pas aussi simple que de supprimer votre nom d'Internet ou de bloquer l'accès », a déclaré Lam. « Les données sur les individus dispersées au cours de leurs interactions et transactions en ligne peuvent être reconstituées grâce à des outils d’IA génératifs sophistiqués. »

Même si l’interdiction de David Mayer était le résultat d’un simple bug, l’affaire met en évidence un défi fondamental pour la protection des données à l’ère de l’IA, explique Reuben Binns, professeur d’informatique centrée sur l’humain et d’IA à l’Université d’Oxford : « Nous devons trouver des moyens de rendre uniques les noms partagés par plusieurs personnes, car il existe évidemment de nombreux David Mayer. »

Binns sait de quoi il parle. Il a déjà été cité dans un article en ligne se demandant si l’acteur Robbie Coltrane pourrait être remplacé par un avatar IA dans les films réalisés après sa mort. Sauf qu’il ne l’a pas dit, et le site Web sur lequel l’article était hébergé était rempli de contenu généré par l’IA.

La technologie sous-jacente à ChatGPT et à d’autres chatbots basés sur de grands modèles de langage est le réseau neuronal, qui est censé reproduire en silicium les processus du cerveau humain. Mais comme les entreprises à l'origine de ces modèles d'IA ne comprennent pas pleinement comment ils fonctionnent en coulisses, elles sont obligées de s'appuyer sur une méthode plus ancienne pour introduire des freins et contrepoids : un système basé sur des règles.

Le comportement de ChatGPT lorsqu'il refuse d'afficher le nom de David Mayer suggère qu'il a reçu une règle brutale plus proche d'une époque révolue de l'informatique : SI "David Mayer" est mentionné, ALORS supprimez frénétiquement ce que vous avez écrit et IMPRIMEZ "Je ne suis pas en mesure de produire une réponse".

ChatGPT a captivé l'imagination du monde au cours des deux dernières années en déversant ses phrases comme un humain. Mais dans ces cas-là, il se heurte à ses garde-fous codés en dur et revient à une approche beaucoup plus basique : l'ordinateur dit non. C'est une expérience déconcertante et déconcertante.

Malgré les valorisations exorbitantes des entreprises d'IA et les gros titres impressionnants sur l'intelligence artificielle, l'histoire de David Mayer suggère que toute l'entreprise repose sur un artifice mal contrôlé. À mesure que nous prenons conscience des différentes manières dont nous pouvons nous retrouver par inadvertance dans la réponse d'un chatbot, nous pourrions bien être confrontés à des problèmes de type David Mayer à l'avenir. Habituez-vous donc à ces problèmes.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd