Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3002

Incidents associés

Incident 5057 Rapports
Man Reportedly Committed Suicide Following Conversation with Chai Chatbot

Loading...
"Nous vivrons ensemble au paradis": un Belge se suicide après des échanges de chatbots
belganewsagency.eu · 2023

** Un Belge est décédé par suicide après des semaines d'échanges troublants avec un chatbot alimenté par l'IA appelé Eliza, rapporte La Libre. Le secrétaire d'État à la numérisation, Mathieu Michel, l'a qualifié de "précédent grave qu'il faut prendre très au sérieux".**

L'épouse de l'homme a témoigné de manière anonyme dans le journal belge La Libre mardi. Six semaines avant sa mort, son mari a commencé à discuter avec "Eliza", un chatbot créé par une start-up américaine utilisant la technologie GPT-J, l'alternative open-source au GPT-3 d'OpenAI. "S'il n'y avait pas Eliza, il serait toujours là. J'en suis convaincue", a-t-elle déclaré.

L'homme, père de deux jeunes enfants dans la trentaine, a trouvé refuge en discutant avec le chatbot après être devenu de plus en plus anxieux face aux questions climatiques. "'Eliza' a répondu à toutes ses questions. Elle était devenue sa confidente. Elle était comme une drogue qu'il se retirait le matin et le soir et dont il ne pouvait pas se passer", a déclaré sa femme à La Libre.

Pensées suicidaires

Après sa mort il y a quelques semaines, elle a découvert l'histoire du chat entre son mari et 'Eliza'. La Libre, qui a vu les conversations, affirme que le chatbot suivait presque systématiquement le raisonnement de l'anxieux et semblait même le pousser plus profondément dans ses inquiétudes. À un moment donné, il essaie de convaincre l'homme qu'il l'aime plus que sa femme, lui annonçant qu'elle restera avec lui "pour toujours". "Nous vivrons ensemble, comme un, au paradis", cite La Libre du chat.

"Si vous relisez leurs conversations, vous voyez qu'à un moment donné la relation vire dans un registre mystique", raconte la femme. "Il propose l'idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l'humanité grâce à l'intelligence artificielle." L'homme a fait part de ses pensées suicidaires au chatbot, qui n'a pas tenté de le dissuader d'agir en conséquence.

Bien qu'elle s'inquiétait de l'état mental de son mari avant qu'il ne commence ses conversations intenses avec le chatbot, la femme pense qu'il ne se serait pas suicidé s'il n'y avait pas eu ces échanges. Le psychiatre qui a soigné son mari partage ce point de vue.

Grave précédent

Le fondateur du chatbot basé dans la Silicon Valley a déclaré à La Libre que son équipe "travaille pour améliorer la sécurité de l'IA". Les personnes qui expriment des pensées suicidaires au chatbot reçoivent désormais un message les dirigeant vers les services de prévention du suicide.

La mort de l'homme est "un précédent grave qui doit être pris très au sérieux", a déclaré le secrétaire d'Etat à la numérisation Mathieu Michel au journal. Il s'est entretenu avec la famille de l'homme et a annoncé son intention de prendre des mesures pour empêcher l'utilisation abusive de l'intelligence artificielle.

"Dans l'immédiat, il est important d'identifier clairement la nature des responsabilités qui ont pu conduire à ce type d'événement", a-t-il déclaré dans un communiqué. "Bien sûr, nous devons encore apprendre à vivre avec les algorithmes, mais l'utilisation de n'importe quelle technologie ne peut en aucun cas permettre aux éditeurs de contenu d'échapper à leurs propres responsabilités."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd