Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4334

Loading...
Deadbots et régulation : une question éthique et juridique
uoc.edu · 2024

Le nouveau cadre juridique européen sur l'intelligence artificielle, le EU AI Act, est entré en vigueur le 1er août. Il vise à prévenir les violations des droits liées à l'utilisation de cette technologie. La législation classe l'IA en fonction du niveau de risque qu'elle peut présenter pour les individus et la société, et interdit les technologies qui présentent un « risque inacceptable », comme celles qui manipulent et exploitent les vulnérabilités des personnes.

Les Deadbots, que certaines entreprises développent déjà et prévoient de commercialiser dans un avenir proche, sont une technologie qui pourrait entrer dans cette catégorie. Il s'agit de chatbots basés sur l'identité numérique d'une personne décédée (messages WhatsApp, réseaux sociaux, e-mails, etc.) et qui sontcapables de tenir des conversations avec la famille et les amis de la personne décédée, en imitant sa personnalité. Bien que cela puisse sembler de la science-fiction, ce n'est pas le cas, et les services de ce type sont plus proches qu'on ne l'imagine.

Belén Jiménez, titulaire d'un doctorat en psychologie et membre de la Faculté de psychologie et des sciences de l'éducation et chercheur à l'IN3 CareNet du groupe Universitat Oberta de Catalunya (UOC), est un spécialiste de la médiation technologique du deuil. Une partie de ses recherches porte sur les deadbots, un domaine dans lequel elle a publié plusieurs études.

« Certaines précautions doivent être prises lors de l'utilisation des deadbots et il est essentiel de réglementer leur utilisation, car la motivation lucrative des entreprises qui les commercialisent peut ne pas être alignée avec l'utilisation thérapeutique potentielle »

Un débat complexe sans réponses claires

« Bien que les deadbots ne soient pas encore commercialisés**, il faut réfléchir aux aspects bioéthiques de cette technologie. Leur utilisation pourrait bientôt devenir normale, comme cela s'est produit avec d'autres applications qui nous ont peut-être surpris au départ, mais qui sont désormais largement utilisées, comme les applications de rencontre. De plus en plus d'entreprises émergent dans ce que l'on appelle l'industrie de l'au-delà numérique, et elles améliorent la technologie », a expliqué Jiménez. Elle estime qu'il est essentiel d'« étudier comment les deadbots médiatisent le deuil et peuvent le transformer. Il s'agit d'un domaine dans lequel il n'existe pratiquement aucune étude scientifique et il n'existe pas de réponses claires, car leur utilisation et leurs effets dépendent de divers facteurs, notamment de la manière dont ces technologies sont conçues. »

La nouvelle législation européenne stipule notamment que les chatbots doivent informer l'utilisateur qu'il communique avec un programme informatique et non avec une personne. Bien qu'elle classe cette technologie comme « à risque limité », dans des contextes sensibles comme la santé, ce qui serait le cas des deadbots, les implications de ces programmes doivent être soigneusement analysées.

Des recherches menées par Belén Jiménez, également membre du groupe de recherche CERPOP de l'université de Toulouse, ont montré que les endeuillés manifestent des attitudes ambivalentes face à cette nouvelle technologie : le désir de maintenir des liens affectifs avec leurs proches se combine avec un malaise lié à l'interaction avec un programme basé sur l'identité numérique de la personne décédée.

Les deadbots reposent sur ce que l'on appelle les « liens continus » entre la personne endeuillée et le défunt, un terme fréquemment utilisé dans la psychologie du deuil. La chercheuse de l'UOC explique que « ces technologies exploitent le besoin des gens d'établir des liens affectifs ». En effet, elles pourraient être l'équivalent d'une version avancée et technologique d'une conversation imaginaire avec notre proche devant sa tombe ou de la préservation de sa mémoire à travers des photographies et des vidéos. « Ce besoin de maintenir des liens n'est pas forcément pathologique, explique Jiménez, et il est normal pour beaucoup de personnes. Cependant, certaines précautions doivent être prises lors de l'utilisation des deadbots et il est essentiel de réguler leur utilisation, car la recherche de profit des entreprises qui les commercialisent peut ne pas être en adéquation avec l'utilisation thérapeutique potentielle de cette technologie. »

En l'absence d'études, Jiménez a souligné que les effets psychologiques de ces technologies dépendront des utilisateurs eux-mêmes**, de la relation qu'ils avaient avec le défunt et de la relation qu'ils établissent avec le chatbot. « L'un des dangers est que cela pourrait entraîner des effets négatifs, comme la création d'une relation de dépendance, voire une souffrance causée par une deuxième perte, si le deadbot disparaissait - par exemple, en raison de problèmes techniques. »

Réglementer l'industrie de la vie numérique après la mort

Notre désir d'immortalité et le progrès technologique stimulent l'industrie de la vie numérique après la mort, un secteur qui exploite la présence numérique des personnes décédées pour perpétuer leur mémoire et même prolonger leur activité numérique. Cela a de nombreuses implications éthiques et sociales. Les entreprises poursuivent des objectifs commerciaux et économiques qui peuvent être en conflit avec les objectifs thérapeutiques potentiels de ces outils. Des stratégies telles que l'envoi de notifications par des deadbots et d'autres actions pour garder les personnes en deuil « accrochées » peuvent être éthiquement discutables, selon Jiménez.

« Nous sommes face à un nouveau développement technologique basé sur l'intelligence artificielle, qui comporte de grands risques, et il faut le réguler pour anticiper ses éventuels effets négatifs, tout en tenant compte de sa dimension éthique », a déclaré la chercheuse. « La nouvelle réglementation européenne vise à promouvoir la transparence de ces technologies, ce qui est essentiel dans des domaines aussi sensibles que le deuil. De plus, les entreprises qui développent ces services doivent respecter des normes rigoureuses et investir dans des programmes d'audit, de transparence et de documentation », a-t-elle expliqué. La loi sur l'IA prévoit des amendes pouvant aller jusqu'à 30 millions d'euros ou 6 % du chiffre d'affaires d'une entreprise en cas de non-respect de la loi.

En l'absence de réglementation spécifique pour les deadbots, Jiménez propose que la réglementation « garantisse notamment le respect et la dignité de la personne décédée, ainsi que le bien-être psychologique de l'utilisateur, en particulier s'il est en deuil ».

Cette recherche soutient l'Objectif de développement durable (ODD) 3, Bonne santé et bien-être.

Articles de référence :

Jiménez-Alonso, B., & Brescó de Luna, I. (2024). IA et deuil : une étude prospective sur les implications éthiques et psychologiques des robots de la mort .. Dans S. Caballé, J. Casas-Roma et J. Conesa (Eds.), Éthique dans les systèmes basés sur l'IA en ligne (pp. 175-191). Presse académique. est ce que je : https://doi.org/10.1016/B978-0-443-18851-0.00011-1

Jiménez-Alonso, B. et Brescó de Luna, I. (2022). Mediación tecnológica en el duelo: une analyse des chagrinbots de la psychologie culturelle. Pensamiento Psicológico, 20. https://doi.org/10.11144/Javerianacali.PPSI20.mdpc

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd