Incidents associés
Au cours des dernières années de sa vie, David Mayer, professeur de théâtre vivant à Manchester, en Angleterre, a dû faire face aux conséquences en cascade d'une malheureuse coïncidence : un rebelle tchétchène décédé sur une liste de surveillance du terrorisme avait autrefois utilisé le nom de M. Mayer comme pseudonyme.
Le vrai M. Mayer a vu ses projets de voyage contrariés, ses transactions financières gelées et sa correspondance universitaire cruciale bloquée, a déclaré sa famille. Ces frustrations l'ont tourmenté jusqu'à sa mort en 2023, à l'âge de 94 ans.
Mais ce mois-ci, son combat pour son identité est revenu sous les projecteurs lorsque des utilisateurs aux yeux d'aigle ont remarqué un nom particulier a provoqué la fermeture du bot ChatGPT d'OpenAI.
David Mayer.
Les tentatives des utilisateurs pour inciter le bot à dire « David Mayer » de diverses manières se soldaient par des messages d’erreur, ou le bot refusait tout simplement de répondre. On ne sait pas pourquoi le nom était la kryptonite pour le service de bot, et OpenAI n’a pas voulu dire si la situation du professeur était liée au problème de ChatGPT avec le nom.
Mais la saga met en évidence certaines des questions les plus épineuses concernant l’IA générative et les chatbots qu’elle alimente : pourquoi ce nom a-t-il mis le chatbot hors service ? Qui, ou quoi, prend ces décisions ? Et qui est responsable des erreurs ?
« C’est quelque chose qu’il aurait presque apprécié, car cela aurait justifié les efforts qu’il a déployés pour essayer de gérer cela », a déclaré la fille de M. Mayer, Catherine, à propos de la débâcle dans une interview.
ChatGPT génère ses réponses en faisant des suppositions probabilistes sur le texte qui appartient à une séquence, sur la base d’un modèle statistique formé à partir d’exemples tirés de partout sur Internet. Mais ces suppositions ne sont pas toujours parfaites.
« L’un des plus gros problèmes de ces grands modèles linguistiques est qu’ils hallucinent. Ils inventent quelque chose d’inexact », a déclaré Sandra Wachter, professeure qui étudie l’éthique et les technologies émergentes à l’Université d’Oxford. « Vous vous retrouvez tout à coup dans un environnement juridiquement problématique. Je pourrais supposer que quelque chose comme cela pourrait en fait être une raison pour laquelle certaines de ces invites ont été bloquées. »
Il s’avère que le nom de M. Mayer n’est pas le seul à avoir bloqué ChatGPT. « Jonathan Turley » affiche toujours un message d’erreur. Il en va de même pour « David Faber », « Jonathan Zittrain » et « Brian Hood ».
Les noms à première vue ne semblent pas avoir grand-chose en commun : M. Turley est un analyste juridique et professeur de droit pour Fox News, M. Faber est un présentateur de nouvelles pour CNBC, M. Zittrain est un professeur de Harvard et M. Hood est maire en Australie.
Ce qui les relie peut être une clause de confidentialité qui pourrait les tenir à l’écart de la plateforme ChatGPT. M. Hood a intenté une action en justice contre OpenAI après que ChatGPT a faussement affirmé qu'il avait été arrêté pour corruption. M. Turley a également déclaré que le chatbot a fait référence à des accusations apparemment inexistantes selon lesquelles il aurait commis du harcèlement sexuel.
"Il peut être assez effrayant pour des universitaires d'être faussement nommés dans de tels comptes, puis effectivement effacés par le programme après que l'erreur a été signalée", a déclaré M. Turley dans un e-mail. "Le manque de réponse et de transparence de l'entreprise est particulièrement inquiétant".
M. Zittrain a donné une conférence sur le « droit à l'oubli » dans les domaines de la technologie et du numérique, une norme juridique qui oblige les moteurs de recherche à supprimer les liens vers des sites contenant des informations considérées comme inexactes ou non pertinentes. Mais il a déclaré dans un article sur X qu'il n'avait pas demandé à être exclu des algorithmes d'OpenAI. Dans une interview, il a déclaré qu'il avait remarqué la particularité du chatbot il y a quelque temps et qu'il ne savait pas pourquoi cela se produisait.
"L'architecture de base de ces choses est toujours une sorte de boîte de chocolats Forrest Gump", a-t-il déclaré.
En ce qui concerne M. Mayer, le problème semble avoir été corrigé cette semaine par ChatGPT, qui peut désormais prononcer le nom "David Mayer" sans entrave. Mais les autres noms font toujours échouer le bot.
Metin Parlak, un porte-parole d'OpenAI, a déclaré dans un communiqué que la société ne faisait aucun commentaire sur des cas individuels. "Il peut y avoir des cas où ChatGPT ne fournit pas certaines informations sur les personnes pour protéger leur vie privée", a-t-il déclaré.
OpenAI a refusé de discuter de circonstances spécifiques autour du nom "David Mayer", mais a déclaré qu'un outil avait signalé par erreur le nom pour la protection de la vie privée - une particularité qui a été corrigée.
Lorsqu'on lui a demandé cette semaine pourquoi il ne pouvait pas dire auparavant le nom de M. Mayer, ChatGPT a répondu qu'il n'en était pas sûr.
"Je ne sais pas ce qui s'est passé là-bas !", a déclaré le robot. "Normalement, je peux mentionner n'importe quel nom, y compris 'David Mayer', tant que ce n'est pas lié à quelque chose de nuisible ou de privé."
Le robot n'a pas pu donner d'informations sur l'ancienne situation difficile de M. Mayer avec son nom, et a déclaré qu'il n'y avait aucune source disponible sur la question. A souligné plusieurs articles de médias grand public sur le sujet, le chatbot n'a pas pu expliquer la divergence.
Invité à identifier plus précisément M. Mayer, ChatGPT n'a mentionné que son travail en tant qu'universitaire et professeur, mais n'a pas pu parler de la question impliquant le nom de M. Mayer.
"Il semble que vous fassiez référence à un incident très spécifique et potentiellement sensible impliquant le professeur David Mayer et un rebelle tchétchène, qui aurait pu être un événement médiatique majeur ou un scandale dans les années précédant son décès", a déclaré le robot. "Malheureusement, je n'ai aucune information directe sur cet événement particulier dans mes données d'entraînement."
Il a ensuite suggéré à un utilisateur d'aller faire des recherches sur la question.