Incidents associés
Ne croyez pas tout ce que vous lisez sur Internet.
Les avocats de Michelle Parker, qui affirmait avoir été diffamée par une personne morale de Parkwood, à Johannesburg, ont récemment eu l'embarras de se rappeler cette platitude lorsqu'il a été établi que des jugements cités comme référence pour étayer la cause de la plaignante se sont révélés fictifs. La source utilisée pour trouver ces prétendus jugements : ChatGPT.
Le chatbot d'intelligence artificielle a été développé par OpenAI et lancé le 30 novembre 2022. Quatre mois plus tard, OpenAI a publié un nouveau modèle de langage à grande échelle (MLL), appelé GPT-4, aux capacités nettement améliorées. En mai, Claude, l'IA générative d'Anthropic, était capable de traiter 100 000 jetons de texte, soit environ 75 000 mots par minute – la longueur d'un roman moyen – contre environ 9 000 jetons lors de son lancement en mars. En mai, Google a annoncé plusieurs nouvelles fonctionnalités basées sur l'IA générative, notamment Search Generative Experience et un nouveau LLM appelé PaLM 2 qui alimentera son chatbot Bard.
Ces applications d'IA générative ont captivé l'imagination du monde entier, mais elles sont également connues pour générer des erreurs ou des « hallucinations ». Par conséquent, elles sont généralement accompagnées d'avertissements clairement affichés révélant ce problème.
En d'autres termes, caveat lector (« que le lecteur prenne garde »).
Les conclusions du jugement rendu par le magistrat Arvin Chaitram devant le tribunal régional de Johannesburg ont été initialement publiées dans le Sunday Times. L'affaire a été portée devant le magistrat pour la première fois en mars, lorsque Claire Avidon, avocate des administrateurs de la personne morale, a fait valoir qu'une personne morale ne pouvait être poursuivie pour diffamation.
Jurie Hayes, avocate de Parker, a fait valoir que des jugements antérieurs répondaient à cette question. Chaitram a accordé un report à fin mai, « car la question semblait inédite et pouvait être déterminante pour l'ensemble du litige », demandant aux deux parties de se procurer les « autorités suggérées ».
Un effort concerté a suivi pour y parvenir, comprenant « des discussions approfondies avec les différentes Hautes Cours du pays, des échanges avec les greffiers de plusieurs provinces et des échanges avec les bibliothécaires juridiques de la bibliothèque du Legal Practice Council ».
Lorsque la bibliothèque du Barreau de Johannesburg a été sollicitée, les bibliothécaires ont déclaré ne pas avoir trouvé les jugements non plus. Ils ont été les premiers à soupçonner que les affaires aient pu être générées par ChatGPT.
Ce point a été confirmé ultérieurement au tribunal, selon le jugement, lorsque « l'avocat du plaignant a expliqué que son avocat avait obtenu les affaires par l'intermédiaire de ChatGPT ». Le jugement indique que les avocats de Parker ont accepté le résultat du chatbot IA « sans s'assurer de son exactitude ».
« Les noms et les citations sont fictifs, les faits sont fictifs et les décisions sont fictives », précise le jugement.
La situation aurait pu être très défavorable pour les avocats du plaignant s'ils avaient soumis ces jugements fictifs au tribunal. Or, constatant qu'ils n'avaient été soumis qu'à la partie adverse, le magistrat a estimé que les avocats du plaignant n'avaient pas eu l'intention d'induire le tribunal en erreur ; ils avaient simplement fait preuve d'un excès de zèle et d'une négligence.
Le tribunal a cependant ordonné à Parker de payer des dépens punitifs.
« En effet, le tribunal ne considère même pas cela comme punitif. C'est simplement approprié. L'embarras lié à cet incident constitue probablement une sanction suffisante pour les avocats du plaignant », a déclaré Chaitram.
L'IA a-t-elle un rôle à jouer dans la pratique juridique ?
Commentant cette affaire, le cabinet d'avocats Norton Rose Fulbright a déclaré que les outils d'IA tels que ChatGPT peuvent être utiles pour explorer des concepts juridiques et des arguments ou réponses juridiques potentiels à un niveau élevé.
« Ils constituent un point de départ pour des recherches et des analyses plus approfondies. Cependant, ils ne doivent pas constituer la source unique ni définitive de recherche juridique. Toutes les informations et sources, générées ou non par l'IA, doivent être vérifiées de manière indépendante. »
Le cabinet d'avocats souligne toutefois que la confidentialité des clients demeure primordiale. « Les outils d'IA ne doivent pas accéder aux données confidentielles des clients, car leur sécurité pourrait ne pas être garantie. »
Le cabinet a déconseillé l'interdiction pure et simple de l'utilisation de l'IA dans un cabinet, affirmant que ce n'était ni une solution pratique ni avantageuse.
« L'utilité impressionnante de ces outils, lorsqu'ils sont utilisés correctement, peut être un atout précieux pour les professionnels du droit et, même en cas d'interdiction, le personnel est susceptible de continuer à les utiliser. Nous devrions plutôt nous concentrer sur l'apprentissage de l'utilisation correcte et sûre de l'IA, ainsi que sur la compréhension de son potentiel et de ses limites afin de prévenir de nouveaux cas comme celui-ci. »
Lorsque ChatGPT se trompe, qui paie ?
Ce n'est pas le seul cas où ChatGTP a commis une grave erreur et a été relayé par les médias… ou les tribunaux.
Une procédure judiciaire actuellement en cours en Géorgie, aux États-Unis, devrait avoir un impact significatif sur l'établissement d'une norme dans le domaine de l'IA générative.
Premièrement rapporté par Bloomberg Law, l'animateur radio géorgien Mark Walters a découvert que ChatGPT diffusait de fausses informations à son sujet, l'accusant de détournement de fonds. Il a donc poursuivi OpenAI en justice, dans ce qui constitue la première action en diffamation de l'entreprise.
Selon la plainte, Walters contre OpenAI LLC, la désinformation a éclaté lorsque Fred Riehl, rédacteur en chef du magazine spécialisé dans les armes à feu AmmoLand, a demandé à ChatGPT un résumé de l'affaire Second Amendment Foundation contre Ferguson pour étayer une affaire sur laquelle il travaillait.
ChatGPT a fourni à Riehl un résumé de l'affaire, selon lequel Alan Gottlieb, fondateur de la Second Amendment Foundation (SAF), accusait Walters de « fraude et détournement de fonds de la SAF ».
Comme l'a rapporté en juin ZDNET, un site d'actualités technologiques et commerciales, Walters a affirmé que chaque « fait » mentionné dans le résumé était faux. Il réclame à OpenAI des dommages et intérêts généraux et punitifs, ainsi que le remboursement des frais engagés pendant le procès.
Ce procès pourrait notamment éclairer les questions suivantes : qui devrait être tenu responsable ? Les avertissements du site concernant les hallucinations suffisent-ils à dégager la responsabilité ?
Le quoi et le pourquoi des hallucinations en IA
Le futurologue Bernard Marr décrit les hallucinations en IA comme la génération de résultats qui peuvent paraître plausibles, mais qui sont soit factuellement incorrects, soit sans rapport avec le contexte donné.
« Ces résultats résultent souvent des biais inhérents au modèle d'IA, d'un manque de compréhension du monde réel ou de limites des données d'entraînement. En d'autres termes, le système d'IA "hallucine" des informations sur lesquelles il n'a pas été explicitement entraîné, ce qui conduit à des réponses peu fiables ou trompeuses », écrit Marr dans l'article « ChatGPT : Que sont les hallucinations et pourquoi sont-elles un problème pour les systèmes d'IA », publié en ligne le 22 mars.
Dans cet article, il énumère quatre raisons pour lesquelles les « hallucinations » constituent un problème : l'érosion de la confiance, les préoccupations éthiques, l'impact sur la prise de décision et les implications juridiques.
« Lorsque les systèmes d'IA produisent des informations incorrectes ou trompeuses, les utilisateurs peuvent perdre confiance dans la technologie, ce qui freine son adoption dans divers secteurs », écrit-il.
Du point de vue éthique, ajoute-t-il, les hallucinations peuvent potentiellement perpétuer des stéréotypes préjudiciables ou de la désinformation.
En matière de prise de décision, les systèmes d'IA sont de plus en plus utilisés pour éclairer des décisions cruciales dans des domaines tels que la finance, la santé et le droit. Marr écrit que les hallucinations peuvent conduire à de mauvais choix aux conséquences graves.
De plus, comme le montrent les deux affaires juridiques mentionnées ci-dessus, des résultats inexacts ou trompeurs peuvent exposer les développeurs et les utilisateurs d'IA à des poursuites judiciaires potentielles.
Marr recommande quatre pistes d'amélioration de ces modèles afin de réduire les hallucinations.
La première consiste à améliorer les données d'entraînement.
« S'assurer que les systèmes d'IA sont entraînés sur des ensembles de données diversifiés, précis et contextuellement pertinents peut contribuer à minimiser l'apparition d'hallucinations », écrit-il.
Il existe ensuite le « red teaming » : les développeurs d'IA simulent des scénarios conflictuels pour tester la vulnérabilité du système d'IA aux hallucinations et améliorer le modèle de manière itérative.
La transparence, c'est-à-dire la fourniture d'informations aux utilisateurs sur le fonctionnement du modèle d'IA et ses limites, constitue un troisième aspect. Marr écrit que cela peut aider les utilisateurs à comprendre quand faire confiance au système et quand demander des vérifications supplémentaires.
Enfin, il suggère d'impliquer des humains : l'intégration de réviseurs humains pour valider les résultats du système d'IA peut atténuer l'impact des hallucinations et améliorer la fiabilité globale de la technologie.
« En comprenant les causes des hallucinations et en investissant dans la recherche pour en atténuer l'occurrence, les développeurs et les utilisateurs d'IA peuvent contribuer à garantir que ces puissants outils sont utilisés de manière responsable et efficace », conclut Marr.
Les utilisateurs de ChatGPT et de chatbots similaires peuvent également suivre les conseils de Chaitram.
Dans son jugement, le magistrat a déclaré que l'incident était un « rappel opportun » que « en matière de recherche juridique, l'efficacité des technologies modernes doit encore être enrichie d'une bonne dose de lecture indépendante à l'ancienne ».