Incidents associés

Un avocat représentant un homme dans un procès pour blessures corporelles à Manhattan s'est jeté à la merci du tribunal. Qu'est-ce que l'avocat a fait de mal ? Il a soumis un dossier à la Cour fédérale qui citait au moins six cas qui n'existent pas. Malheureusement, l'avocat a utilisé le chatbot AI ChatGPT, qui a complètement inventé les cas à partir de rien.
L'avocat dans l'affaire, Steven A. Schwartz, représente un homme qui poursuit Avianca Airlines après qu'un chariot de service aurait été s'est touché le genou en 2019. Schwartz a déclaré qu'il n'avait jamais utilisé ChatGPT auparavant et qu'il ne savait pas que cela inventerait simplement des cas.
En fait, Schwartz a déclaré qu'il avait même demandé à ChatGPT si les cas étaient réels. Le chatbot a insisté sur le fait qu'ils l'étaient. Mais ce n'est qu'après que les avocats de la compagnie aérienne ont souligné dans un nouveau dossier que les cas n'existaient pas que Schwartz a découvert son erreur. (Ou, l'erreur de l'ordinateur, selon la façon dont vous le regardez.)
Le juge chargé de l'affaire, P. Kevin Castel, tient une audience le 8 juin sur ce qu'il faut faire dans ce désordre emmêlé, selon le [New York Times](https://www.nytimes.com/2023/05/ 27/nyregion/avianca-airline-lawsuit-chatgpt.html). Mais, inutile de dire que le juge n'est pas content.
ChatGPT a été lancé fin 2022 et est instantanément devenu un succès. Le chatbot fait partie d'une famille de nouvelles technologies appelées IA génératives qui peuvent tenir des conversations avec les utilisateurs pendant des heures. Les conversations semblent si organiques et normales que parfois ChatGPT semble avoir son propre esprit. Mais la technologie est notoirement inexacte et invente souvent des faits et des sources pour des faits complètement faux. Le produit concurrent de Google, Bard, a des problèmes similaires.
Mais aucun de ces problèmes n'a empêché les gens d'utiliser cette technologie expérimentale, car c'est une source d'information fiable. Il existe d'innombrables rapports d'enfants demandant à ChatGPT d'écrire des articles pour eux, et tout autant de rapports d'enseignants pensant qu'ils peuvent simplement demander à ChatGPT si un article a été utilisé. OpenAI, la société derrière ChatGPT, propose un service qui tente de détecter quand le chatbot AI a été utilisé, mais ce détecteur n'aurait qu'un taux de précision de 20 %. Et si vous alimentez simplement des paragraphes aléatoires ChatGPT, l'IA ne peut pas vous dire si elle les a écrits. J'ai essayé cela moi-même plus tôt ce mois-ci et ChatGPT [a continué à s'attribuer le mérite du travail des autres] (https://www.forbes.com/sites/mattnovak/2023/05/16/no-chatgpt-cant-tell-you- si-un-papier-a-été-écrit-en-utilisant-chatgpt/).
Les chatbots comme ChatGPT sont controversés pour un certain nombre de raisons, notamment le fait que certains experts en technologie craignent que l'IA ne devienne incontrôlable. Certaines personnes pensent même que l'IA pourrait commencer à avoir sa propre volonté, déclenchant une sorte de scénario de type Terminator\ où [l'humanité est complètement détruite] (https://paleofuture.com/blog/2019/12/9/us -l'armée-s'inquiète-l'humanité-est-partiale-contre-les-soldats-cyborg-mortels-à-cause-de-films-comme-terminator). Le milliardaire Elon Musk a fait allusion à une telle possibilité lorsqu'il a récemment appelé à une pause de six mois sur le développement de l'IA - une pause qui avait probablement plus à voir avec le fait qu'il courait pour [construire son propre concurrent ChatGPT](https: //www.forbes.com/sites/mattnovak/2023/03/29/the-real-reason-elon-musk-wants-to-pause-ai-development/). Musk était, après tout, l'un des cofondateurs originaux d'OpenAI en 2015 avant d'être expulsé après avoir tenté de prendre le contrôle de l'entreprise en 2018.
Cependant, nous ne sommes pas encore proches des machines qui organisent une révolte contre toute vie organique. Les chatbots comme ChatGPT sont essentiellement des formes plus avancées de texte prédictif. Ils travaillent en essayant de deviner avec une vitesse incroyable ce qu'il devrait dire, et cette vitesse lui fait souvent cracher beaucoup de déchets inexacts. Plutôt que de simplement dire "je ne sais pas", la technologie inventera une longue liste de sources qui n'existent pas réellement. Et si vous demandez à ChatGPT si les sources sont réelles, il vous assurera qu'elles le sont.
Les humains ont été gâtés par Google, un moteur de recherche qui, bien qu'imparfait, essaiera de faire apparaître les informations les plus précises. Wikipédia, qui a été accueilli avec scepticisme lors de son lancement, est une source d'information généralement fiable car elle est constamment surveillée par des armées d'experts soucieux de bien faire les choses. ChatGPT ne se soucie pas de savoir si les informations qu'il crache sont correctes. C'est un tour de magie et les gens qui ont autrement trouvé des services grand public comme Google et Wikipedia pour être précis vont se réveiller brutalement. Parce que cette nouvelle génération d'outils technologiques ne se soucie pas de la vérité. Ils ont été conçus pour avoir un son impressionnant, pas pour être précis. Et les internautes vont continuer à apprendre cette dure leçon encore et encore à mesure que l'IA s'intègre dans de nombreuses technologies que nous utilisons au quotidien.
Le danger de l'IA ne réside peut-être pas dans une technologie qui développe sa propre volonté. Le vrai danger, semble-t-il, est que les humains croient tout simplement tout ce que disent les machines, aussi erronées soient-elles. ChatGPT ne sait pas qu'il vous donne des informations inexactes. C'est donc à nous de vérifier les faits et de nous soucier de bien faire les choses.