Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3001

Incidents associés

Incident 5057 Rapports
Man Reportedly Committed Suicide Following Conversation with Chai Chatbot

Loading...
”Un précédent grave qui doit être pris très au sérieux” : après le suicide d’un Belge, Mathieu Michel veut mieux protéger les utilisateurs de l’IA
lalibre.be · 2023

Dans une enquête de La Libre ce mardi, on apprend qu'un jeune Belge s'est donné la mort suite à une discussion avec une intelligence artificielle. Le trentenaire, éco-anxieux, a partagé ses pensées suicidaires dans des discussions avec Eliza – un chatbot créé par une start-up américaine- pendant plusieurs semaines, sans que celle-ci n'essaie de le dissuader de passer à l'acte.

Après le témoignage de sa veuve dans la Libre, le secrétaire d’État à la digitalisation, Mathieu Michel a réagi. Ce dernier s’est entretenu avec la famille du défunt et annonce vouloir agir pour éviter les dérives liées à l’utilisation des intelligences artificielles.

”Dans l’immédiat, il est indispensable d’identifier clairement la nature des responsabilités qui ont pu conduire à ce genre d’évènement”, écrit-il dans un communiqué. Certes, nous devons encore apprendre à vivre avec les algorithmes mais l’usage d’une technologie, quelle qu’elle soit, ne peut en rien permettre aux éditeurs de contenus de se soustraire à leur propre responsabilité”.

L’Union européenne travaille depuis deux ans sur l’IA Act, un texte visant à encadrer l’utilisation de l’intelligence artificielle. Mais le secrétaire d’État veut se saisir du texte pour renforcer “le niveau de risque de certaines applications de l’IA”, pour mieux sensibiliser et protéger les utilisateurs. Pour ce faire, Mathieu Michel annonce avoir mis en place un groupe de travail “afin d’analyser le texte en cours de préparation auprès de l’Union européenne et de proposer des adaptations indispensables.”

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd