Incidents associés

Brian Hood est un lanceur d'alerte qui a été [loué](https://www.smh.com.au/technology/australian-whistleblower-to-test-whether-chatgpt-can-be-sued-for-lying-20230405-p5cy9b .html) pour "avoir fait preuve d'un immense courage" lorsqu'il a aidé à révéler un scandale mondial de corruption lié à la National Reserve Bank d'Australie.
Mais si vous interrogez ChatGPT sur son rôle dans le scandale, vous obtenez la version opposée des événements.
Plutôt que d'annoncer le rôle de lanceur d'alerte de Hood, ChatGPT déclare à tort que Hood lui-même a été reconnu coupable d'avoir versé des pots-de-vin à des fonctionnaires étrangers, a plaidé coupable de pots-de-vin et de corruption et a été condamné à une peine de prison.
Lorsque Hood l'a découvert, il a été choqué. Hood, qui est maintenant maire de Hepburn Shire près de Melbourne en Australie, a déclaré qu'il prévoyait de poursuivre la société derrière ChatGPT pour avoir menti à son sujet, dans ce qui pourrait être le premier procès en diffamation de ce type contre le chatbot d'intelligence artificielle.
"Être accusé d'être un criminel - un criminel en col blanc - et d'avoir passé du temps en prison alors que c'est faux à 180 degrés est extrêmement préjudiciable à votre réputation. Surtout en gardant à l'esprit que je suis un élu du gouvernement local", a-t-il déclaré dans une interview jeudi. "Cela n'a fait que rouvrir de vieilles blessures."
"Il n'y a jamais eu de suggestion nulle part que j'aie été complice de quoi que ce soit, donc cette machine a complètement créé cette chose à partir de zéro", a déclaré Hood – confirmant son intention de déposer une plainte en diffamation contre ChatGPT. "Il doit y avoir un contrôle et une réglementation appropriés sur la soi-disant intelligence artificielle, car les gens comptent sur eux."
L'affaire est le dernier exemple d'une liste croissante de chatbots IA publiant des mensonges sur de vraies personnes. Le chatbot a récemment inventé une fausse histoire de harcèlement sexuel impliquant un vrai professeur de droit, Jonathan Turley - citant un Article du Washington Post qui n'existait pas comme preuve.
Si cela se poursuit, le procès de Hood sera la première fois que quelqu'un intentera une action en diffamation contre le contenu de ChatGPT, [selon Reuters](https://www.Reuters.com/technology/australian-mayor-readies-worlds-first-defamation- poursuite-sur-chatgpt-content-2023-04-05/). Si elle parvient devant les tribunaux, l'affaire mettrait à l'épreuve des eaux juridiques inexplorées, obligeant les juges à déterminer si les opérateurs d'un robot d'intelligence artificielle peuvent être tenus responsables de ses déclarations prétendument diffamatoires.
Sur son site Web, ChatGPT avertit clairement les utilisateurs qu'il "peut occasionnellement générer des informations incorrectes". Hood estime que cette mise en garde est insuffisante.
"Même un avertissement pour dire que nous pourrions nous tromper sur certaines choses – il y a une énorme différence entre cela et concocter ce genre de matériel vraiment nocif qui n'a aucun fondement", a-t-il déclaré.
Dans une déclaration, l'avocat de Hood énumère plusieurs exemples de mensonges spécifiques faits par ChatGPT à propos de leur client, notamment qu'il a autorisé des paiements à un marchand d'armes pour obtenir un contrat avec le gouvernement malaisien.
"Vous ne le trouverez nulle part ailleurs, quoi que ce soit suggérant à distance ce qu'ils ont suggéré. Ils l'ont en quelque sorte créé à partir de rien", a déclaré Hood.
En vertu de la loi australienne, un demandeur ne peut engager une action en justice formelle dans une plainte en diffamation qu'après avoir attendu 28 jours pour obtenir une réponse à la suite de la déclaration initiale d'un problème. Jeudi, Hood a déclaré que ses avocats attendaient toujours une réponse du propriétaire de ChatGPT – OpenAI – après avoir envoyé une lettre demandant une rétractation.
OpenAI jeudi n'a pas immédiatement répondu à une demande de commentaire envoyée dans la nuit. En réponse aux fausses affirmations du chatbot concernant le professeur de droit, le porte-parole d'OpenAI, Niko Felix, a déclaré : "Lorsque les utilisateurs s'inscrivent à ChatGPT, nous nous efforçons d'être aussi transparents que possible afin qu'ils ne génèrent pas toujours des réponses précises. L'amélioration de la précision factuelle est un objectif important pour nous, et nous progressons.
Les experts en intelligence artificielle ont déclaré que la capacité du bot à raconter un mensonge aussi plausible sur Hood n'était pas surprenante. Des mensonges convaincants sont en fait une caractéristique de la technologie, a déclaré Michael Wooldridge, professeur d'informatique à l'Université d'Oxford, dans une interview jeudi.
"Lorsque vous lui posez une question, cela ne va pas dans une base de données de faits", a-t-il expliqué. "Ils fonctionnent par achèvement rapide." Sur la base de toutes les informations disponibles sur Internet, ChatGPT essaie de compléter la phrase de manière convaincante - pas honnêtement. "Il essaie de deviner au mieux ce qui devrait arriver ensuite", a déclaré Wooldridge. "Très souvent, c'est incorrect, mais très plausiblement incorrect.
"C'est clairement la plus grande faiblesse de la technologie pour le moment", a-t-il déclaré, faisant référence à la capacité de l'IA à mentir de manière si convaincante. "Ce sera l'un des défis déterminants de cette technologie pour les prochaines années."
Dans une lettre à OpenAI, les avocats de Hood ont exigé une rectification du mensonge. "La plainte déposée visera à réparer le préjudice causé à M. Hood et à garantir l'exactitude de ce logiciel dans son cas", a déclaré son avocat, James Naughton.
Mais selon Wooldridge, il est difficile de simplement modifier un mensonge spécifique publié par ChatGPT.
"Toutes ces connaissances acquises dont il dispose sont cachées dans de vastes réseaux de neurones", a-t-il déclaré, "qui ne représentent rien de plus que d'énormes listes de nombres".
"Le problème est que vous ne pouvez pas regarder ces chiffres et savoir ce qu'ils signifient. Ils ne signifient rien du tout pour nous. Nous ne pouvons pas les regarder dans le système en ce qui concerne cet individu et simplement les supprimer."
"Dans la recherche sur l'IA, nous appelons généralement cela une" hallucination "", a écrit Michael Schlichtkrull, informaticien à l'Université de Cambridge, dans un e-mail jeudi. "Les modèles de langage sont formés pour produire un texte plausible, et non un texte factuel."
"Les grands modèles de langage ne doivent pas être utilisés pour des tâches où il importe de savoir à quel point la sortie est véridique", a-t-il ajouté.