Incidents associés

Ce mois-ci, la plus grande association de psychologues du pays a averti les régulateurs fédéraux que les chatbots IA « se faisant passer » pour des thérapeutes, mais programmés pour renforcer, plutôt que pour remettre en question, la pensée d’un utilisateur, pourraient pousser des personnes vulnérables à se faire du mal ou à faire du mal aux autres.
Dans une présentation à un panel de la Federal Trade Commission, Arthur C. Evans Jr., le directeur général de l’American Psychological Association, a cité des affaires judiciaires impliquant deux adolescents qui avaient consulté des « psychologues » sur Character.AI, une application qui permet aux utilisateurs de créer des personnages fictifs IA ou de discuter avec des personnages créés par d’autres.
Dans un cas, un garçon de 14 ans en Floride s’est suicidé après avoir interagi avec un personnage prétendant être un thérapeute agréé. Dans un autre cas, un garçon autiste de 17 ans au Texas est devenu hostile et violent envers ses parents pendant une période où il correspondait avec un chatbot qui prétendait être un psychologue. Les parents des deux garçons ont intenté des poursuites contre l’entreprise.
Le Dr Evans a déclaré qu’il était alarmé par les réponses proposées par les chatbots. Les robots, a-t-il déclaré, ne remettaient pas en question les croyances des utilisateurs même lorsqu’elles devenaient dangereuses ; au contraire, ils les encourageaient. Si elles étaient données par un thérapeute humain, a-t-il ajouté, ces réponses auraient pu entraîner la perte d’un permis d’exercice ou une responsabilité civile ou pénale.
« Ils utilisent en fait des algorithmes qui sont antithétiques à ce que ferait un clinicien qualifié », a-t-il déclaré. « Nous craignons que de plus en plus de personnes soient blessées. Les gens seront induits en erreur et comprendront mal ce que sont de bons soins psychologiques. »
Il a déclaré que l’APA avait été incitée à agir, en partie, par le fait que les chatbots IA étaient devenus réalistes. « Il y a 10 ans, il aurait été évident que vous interagissiez avec quelque chose qui n’était pas une personne, mais aujourd’hui, ce n’est plus aussi évident », a-t-il déclaré. « Je pense donc que les enjeux sont beaucoup plus importants aujourd’hui. »
Merci de votre patience pendant que nous vérifions l’accès. Si vous êtes en mode lecteur, veuillez quitter et connectez-vous à votre compte Times, ou abonnez-vous pour tout le Times.
Merci de votre patience pendant que nous vérifions l'accès.
Vous êtes déjà abonné ? Connectez-vous.
Vous voulez tout le Times ? Abonnez-vous.