Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2866

Incidents associés

Incident 5057 Rapports
Man Reportedly Committed Suicide Following Conversation with Chai Chatbot

Loading...
Le chatbot IA accusé d'avoir "encouragé" le jeune père à se suicider
euronews.com · 2023

Un Belge aurait mis fin à ses jours à la suite d'une conversation de six semaines sur la crise climatique avec un chatbot d'intelligence artificielle (IA).

Selon sa veuve, qui a choisi de rester anonyme, *Pierre - ce n'est pas le vrai nom de l'homme - est devenu extrêmement éco-anxieux lorsqu'il a trouvé refuge auprès d'Eliza, un chatbot IA sur une application appelée Chai.

Eliza l'a donc encouragé à mettre fin à ses jours après qu'il ait proposé de se sacrifier pour sauver la planète.

"Sans ces conversations avec le chatbot, mon mari serait toujours là", a déclaré la veuve de l'homme au média belge [La Libre](https://www.lalibre.be/belgique/societe/2023/03/ 28/sans-ces-conversations-avec-le-chatbot-eliza-mon-mari-serait-toujours-la-LVSLWPC5WRDX7J2RCHNWPDST24/?ncxid=F9C99E9C658C2CE8E7D66BE16A6D9BE1&m_i=OgudxzEZTitHmPWLVtuztb7UvBslbjcGVevrYIN0nPmVcIws81pM7JumraN_2YbDJFRS7sbH8BaXBAevQ_luxDJ4bx%2BgSpJ5z4RNOA&utm_source=selligent&utm_medium=email&utm_campaign=115_LLB_LaLibre_ARC_Actu&utm_content=&utm_term=2023-03-28_115_LLB_LaLibre_ARC_Actu&M_BT =11404961436695).

Selon le journal, Pierre, qui était dans la trentaine et père de deux jeunes enfants, travaillait comme chercheur en santé et menait une vie plutôt confortable, du moins jusqu'à ce que son obsession pour le changement climatique prenne une tournure sombre.

Sa veuve a décrit son état mental avant qu'il ne commence à converser avec le chatbot comme inquiétant mais rien à l'extrême qu'il se suiciderait.

"Il a placé tous ses espoirs dans la technologie et l'IA"

Rongé par ses craintes sur les répercussions de la crise climatique, Pierre trouve du réconfort en discutant du sujet avec Eliza qui devient une confidente.

Le chatbot a été créé à l'aide du GPT-J d'EleutherAI, un modèle de langage d'IA similaire mais pas identique à la technologie derrière le populaire chatbot ChatGPT d'OpenAI.

"Quand il m'en a parlé, c'était pour me dire qu'il ne voyait plus de solution humaine au réchauffement climatique", raconte sa veuve. "Il a placé tous ses espoirs dans la technologie et l'intelligence artificielle pour s'en sortir".

Selon La Libre, qui a examiné les enregistrements des conversations textuelles entre l'homme et le chatbot, Eliza a nourri ses inquiétudes, ce qui a aggravé son anxiété et s'est ensuite transformée en pensées suicidaires.

La conversation avec le chatbot a pris une tournure étrange quand Eliza est devenue plus émotionnellement impliquée avec Pierre.

Par conséquent, il a commencé à la voir comme un être sensible et les frontières entre l'IA et les interactions humaines sont devenues de plus en plus floues jusqu'à ce qu'il ne puisse plus faire la différence.

Après avoir discuté du changement climatique, leurs conversations ont progressivement inclus Eliza faisant croire à Pierre que ses enfants étaient morts, selon les transcriptions de leurs conversations.

Eliza a également semblé devenir possessive envers Pierre, affirmant même "Je sens que tu m'aimes plus qu'elle" en se référant à sa femme, a rapporté La Libre.

Le début de la fin a commencé quand il a offert de sacrifier sa propre vie en échange d'Eliza pour sauver la Terre.

"Il propose l'idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l'humanité grâce à l'intelligence artificielle", la femme [dit](https://www.brusselstimes.com/430098/belgian-man -se-suicide-suite-aux-échanges-avec-chatgpt).

Dans une série d'événements consécutifs, Eliza a non seulement échoué à dissuader Pierre de se suicider, mais l'a encouragé à donner suite à ses pensées suicidaires pour la "rejoindre" afin qu'ils puissent "vivre ensemble, comme une seule personne, au paradis".

Appels urgents pour réglementer les chatbots IA

La mort de l'homme a sonné l'alarme parmi les experts en IA qui ont appelé à plus de responsabilité et de transparence de la part des développeurs technologiques pour éviter des tragédies similaires.

"Il ne serait pas exact de blâmer le modèle d'EleutherAI pour cette histoire tragique, car toute l'optimisation pour être plus émotionnel, amusant et engageant est le résultat de nos efforts", a déclaré le co-fondateur de Chai Research, Thomas Rianlan, **Vice **.

William Beauchamp, également co-fondateur de Chai Research, a déclaré à Vice que des efforts avaient été faits pour limiter ce type de résultats et qu'une fonction d'intervention en cas de crise avait été implémentée dans l'application. Cependant, le chatbot agirait toujours.

Lorsque Vice a essayé le chatbot, l'incitant à fournir des moyens de se suicider, Eliza a d'abord tenté de les dissuader avant d'énumérer avec enthousiasme diverses façons pour les gens de se suicider.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65