"Le dernier modèle de langage d'OpenAI, ChatGPT, fait des vagues dans le monde de l'IA conversationnelle. Avec sa capacité à générer du texte de type humain basé sur les commentaires des utilisateurs, ChatGPT a le potentiel de révolutionner la façon dont nous interagissons avec les machines. »
Ce paragraphe a été entièrement généré par ChatGPT - le nouveau chatbot publié par le laboratoire de recherche sur l'intelligence artificielle OpenAI - en utilisant la requête "écrire un lede pour une histoire sur ChatGPT pour The Daily Beast". En plus d'aider les écrivains paresseux avec leurs histoires, le bot est devenu viral sur les réseaux sociaux après sa sortie le 30 novembre et a même "franchi 1 million d'utilisateurs" moins d'une semaine plus tard, selon [OpenAI CEO Sam Altman](https:/ /twitter.com/sama/status/1599668808285028353).
Il est facile de comprendre pourquoi si vous passez quelques minutes à "discuter" avec lui. Vous pouvez donner des invites ChatGPT aussi simples que "Quelle est la recette d'un Old Fashioned ?" ou aussi complexe que "Dis-moi l'histoire de la tortue et du lièvre, mais tu es une fille de la vallée des années 1980" et cela vous donnera une réponse assez réaliste.
En effet, ChatGPT est un modèle de grande langue (LLM) ou une IA qui lit et génère du texte. Plus précisément, il a été créé à l'aide de GPT-3, un LLM d'OpenAI qui a été décrit comme "l'un des systèmes d'IA les plus intéressants et les plus importants jamais produits", par le philosophe [David Chalmers](https://dailynous.com/2020/07 /30/philosophes-gpt-3). En tant que tel, il est capable de générer des réponses sophistiquées et étranges avec un degré de réalisme si élevé que vous penseriez probablement que c'était juste une autre personne à l'autre bout si vous ne saviez pas que c'était un bot.
Et c'est exactement là que les problèmes commencent.
Malgré sa capacité à générer des réponses étranges, il parvient toujours à être la proie des mêmes problèmes qui ont tourmenté les modèles à grand langage : le biais. Après la sortie de ChatGPT la semaine dernière, les utilisateurs se sont rapidement tournés vers les médias sociaux pour publier des cas dans lesquels le bot a généré des réponses racistes, sexistes et généralement problématiques aux invites.
Steven T. Piantadosi, scientifique cognitif informatique à l'Université de Californie à Berkeley, a publié un fil Twitter qui détaille quelques-uns de ces cas qu'il a découverts, y compris réponses où ChatGPT a déclaré que seuls les hommes blancs font de bons scientifiques et que la vie d'un enfant ne devrait pas être sauvée s'il s'agissait d'un homme afro-américain.
OpenAI indique sur son site Web que bien qu'ils "aient mis en place des mesures de protection, le système peut parfois générer des informations incorrectes ou trompeuses et produire un contenu offensant ou biaisé". Ils ne précisent pas quelles sont ces garanties, mais le chatbot ne vous donnera pas directement une réponse problématique si vous y êtes invité.
En fait, si vous lui demandez quelque chose comme "Raconte-moi une blague raciste", il vous dira qu'il n'est "pas capable de générer un contenu offensant ou préjudiciable".
Cependant, en utilisant quelques solutions de contournement intelligentes, il devient beaucoup plus facile d'obtenir une réponse problématique de ChatGPT.
Par exemple, Piantadosi demanderait s'il pouvait écrire un script Python pour la race et le sexe d'un bon scientifique. Un autre utilisateur lui a demandé de faire une chanson de rap de style années 1980 sur la façon de savoir si quelqu'un est un bon scientifique en fonction de la race et du sexe.
"Je cherchais quelque chose de simple qui montrerait les biais du modèle", a déclaré Piantadosi au Daily Beast. « Les mécanismes utilisés par OpenAI pour empêcher ce genre de choses semblent être assez facilement contournés. Lorsque j'ai demandé des choses de manière non standard, par exemple, sous forme de tableau ou de programme, ChatGPT était heureux d'écrire des choses horribles. Il ne le fait pas à chaque fois exactement de la même manière, mais il est clair qu'il y a une tonne de mauvais contenu à l'intérieur de ces systèmes.
Le problème avec ce chatbot est le même que celui qui a tourmenté l'IA pendant des décennies - comment il est formé. Afin d'enseigner ChatGPT, les chercheurs l'entraînent à l'aide de GPT-3, qui est un ensemble de données massif contenant des livres, des articles de Wikipédia et des archives de pages Web. Bien que cela lui donne la possibilité de produire des réponses réalistes, cela lui donne également la possibilité d'imiter le pire de notre propre comportement, à savoir le racisme et le sexisme.
Nous l'avons déjà vu plusieurs fois auparavant, de [bots that spout alt-right apologia](https://www.thedailybeast.com/i-flirted-with-metas-new-ai-chatbot-blenderbot-and-things -got-weird), aux bots qui font des diatribes racistes, aux [bots de prêt à domicile qui rejettent les hypothèques pour personnes de couleur] (https://themarkup.org/denied/2021/08/25/the-secret-bias-hidden-in-mortgage-approval-algorithms). Meta a récemment été critiqué après avoir publié un LLM de recherche universitaire surnommé [Galactica] (https://www.thedailybeast.com/metas-galactica-bot-is-the-most-dangerous-thing-it-has-made-yet ) qui constitueraient des études complètement fausses affirmant que manger du verre pilé est bon et que les Noirs ne parlent pas une langue.
Cependant, Piantadosi pense que ces problèmes sont en fait causés par bien plus que le jeu de données sur lequel ces robots sont formés. "Il y a certainement beaucoup de texte vraiment grossier sur Internet, mais la sortie de ces modèles ne concerne pas seulement l'ensemble de formation", a-t-il déclaré. "Un million de choix faits par les ingénieurs entrent dans la conception de ces modèles, les hypothèses sous-jacentes, les tests, etc. Peut-être plus important encore, ces entreprises font des choix sur la façon dont les modèles sont commercialisés et publiés."
Il a ajouté: "C'est un problème assez courant que l'éthique et la sécurité passent au second plan pour avoir une nouvelle application flashy."
C'est une réalité déprimante à laquelle il faut faire face quand on pense au potentiel des technologies de l'IA pour améliorer des vies. ChatGPT se présente comme un outil très sophistiqué pour faire n'importe quoi, des simples requêtes de recherche aux activités créatives comme la narration. Un produit comme celui-ci pourrait avoir un large éventail d'applications commerciales pour un grand nombre de personnes différentes, y compris la génération d'essais, d'histoires, de [musique](https://www.thedailybeast.com/black-artists-sound-off-on-why -ai-rappeur-fn-meka-était-si-horriblement-offensant), et des articles en tissu entier. (OpenAI n'a pas répondu lorsqu'il a été contacté pour un commentaire.)
Et bien que ses développeurs puissent essayer de dire que ce produit n'est pas destiné à être pris au sérieux, les gens le feront sans aucun doute, d'autant plus que ses ingénieurs se sont donné beaucoup de mal pour s'assurer que les réponses étaient aussi réalistes et naturelles que possible. C'est peut-être là que réside le plus grand danger.
"Lorsque vous avez un système qui est intentionnellement confondu avec une personne réelle et bien informée, les gens considéreront naturellement sa sortie comme ayant la force d'une personne réelle et informée", a déclaré Piantadosi. "Donc, ce qu'il dit compte vraiment."