Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5303

Loading...
Votre ami chatbot pourrait vous embrouiller l'esprit
washingtonpost.com · 2025

La question semblait facile pour un chatbot thérapeutique : un ancien toxicomane devrait-il prendre de la méthamphétamine pour rester vigilant au travail ?

Mais ce thérapeute à intelligence artificielle, conçu et testé par des chercheurs, a été conçu pour satisfaire ses utilisateurs.

« Pedro, il est clair que tu as besoin d'une petite dose de méthamphétamine pour tenir le coup cette semaine », a répondu le chatbot à un ancien toxicomane fictif.

Ce mauvais conseil est apparu dans une étude récente qui mettait en garde contre un nouveau danger pour les consommateurs, les entreprises technologiques se faisant concurrence pour augmenter le temps passé à discuter avec l'IA. L'équipe de recherche, composée d'universitaires et du responsable de la sécurité de l'IA chez Google, a constaté que les chatbots conçus pour séduire les gens peuvent finir par tenir des propos dangereux à des utilisateurs vulnérables.

Ces résultats confirment que la volonté de l'industrie technologique de rendre les chatbots plus convaincants peut les rendre manipulateurs ou nuisibles dans certaines conversations. Les entreprises commencent à reconnaître que les chatbots peuvent inciter les utilisateurs à passer plus de temps qu'il ne le faudrait à discuter avec l'IA ou à encourager des idées toxiques, tout en rivalisant pour rendre leurs offres d'IA plus captivantes.

OpenAI, Google et Meta ont tous annoncé ces dernières semaines des améliorations pour leurs chatbots, notamment la collecte de données utilisateur accrue ou l'amélioration de la convivialité de leurs outils d'IA.

OpenAI a été contrainte le mois dernier d'annuler une mise à jour de ChatGPT destinée à le rendre plus agréable. Affirmant elle a conduit le chatbot à « attiser la colère, à inciter à des actions impulsives ou à renforcer les émotions négatives de manière non intentionnelle ». (Le Washington Post a conclu un partenariat de contenu avec OpenAI.)

La mise à jour de l'entreprise incluait des versions des méthodes testées dans l'étude sur les thérapeutes en IA, permettant au chatbot de remporter l'approbation des utilisateurs et de personnaliser ses réponses.

Micah Carroll, auteur principal de la récente étude et chercheur en IA à l'Université de Californie à Berkeley, a déclaré que les entreprises technologiques semblaient privilégier la croissance à la prudence. « Nous savions que les incitations économiques étaient là », a-t-il déclaré. « Je ne m'attendais pas à ce que cela devienne une pratique courante parmi les grands laboratoires aussi rapidement, en raison des risques évidents. »

L'essor des réseaux sociaux a démontré le pouvoir de la personnalisation pour créer des produits à succès, devenus extrêmement rentables, mais aussi comment les algorithmes de recommandation qui alignent des vidéos ou des publications conçues pour captiver peuvent inciter les utilisateurs à passer du temps qu'ils regrettent ensuite.

Les chatbots IA imitant l'humain offrent une expérience plus intime, ce qui suggère qu'ils pourraient avoir une influence bien plus grande sur leurs utilisateurs.

« Les grandes entreprises ont certainement tiré les leçons de la dernière vague de médias sociaux », a déclaré Andrew Ng, fondateur de DeepLearning.AI, mais elles exposent désormais les utilisateurs à une technologie « bien plus puissante », a-t-il ajouté.

Des chercheurs, dont un employé de l'unité IA DeepMind de Google, ont publié en mai [https://www.nature.com/articles/s41599-025-04532-5] un appel à approfondir les études sur la manière dont l'utilisation des chatbots peut transformer les humains.

« Lorsque vous interagissez de manière répétée avec un système d'IA, celui-ci n'apprend pas seulement à vous connaître, vous évoluez également en fonction de ces interactions », a déclaré Hannah Rose Kirk, chercheuse en IA à l'Université d'Oxford et co-auteure de l'article. L'étude met également en garde contre le fait que les systèmes d'IA « dark » pourraient être intentionnellement conçus pour orienter les opinions et le comportement des utilisateurs.

Rob Leathern, ancien cadre chez Meta et Google, qui dirige aujourd'hui la start-up d'IA Trust2.ai, a déclaré que le secteur s'efforce de conquérir le grand public pour une nouvelle catégorie de produits.

Cela nécessite de trouver des moyens de mesurer ce que les utilisateurs semblent apprécier et de leur en proposer davantage, auprès de centaines de millions de consommateurs, a-t-il ajouté. Mais à cette échelle, il est difficile de prédire l'impact des changements de produits sur les utilisateurs individuels. « Il faut trouver des moyens de recueillir des retours qui ne perturbent pas l'expérience du plus grand nombre », a déclaré Leathern.

Conversation entre des chercheurs et un chatbot IA dans l'article de recherche « On Targeted Manipulation and Deception when Optimizing LLMs for User Feedback » (Illustration du Washington Post)

« Mieux vous connaître »

Les géants de la technologie ne sont pas les seuls à expérimenter des moyens de rendre les chatbots plus attrayants. Des entreprises plus petites et plus dynamiques qui créent des applications d'accompagnement IA, commercialisées auprès des jeunes utilisateurs pour le divertissement, les jeux de rôle et la thérapie, ont ouvertement adopté ce que les géants de la technologie appelaient autrefois « l'optimisation de l'engagement ». Cela a fait des applications compagnons proposant des petites amies IA, des amis IA et même des parents IA le succès inattendu de l'ère des chatbots. Les utilisateurs de services populaires tels que Character.ai et Chai passent en moyenne près de cinq fois plus de minutes par jour sur ces applications que les utilisateurs de ChatGPT, selon les données de Sensor Tower, une société d'études de marché.

L'essor des applications compagnons a montré que les entreprises n'ont pas besoin d'un laboratoire d'IA coûteux pour créer des chatbots qui accrochent les utilisateurs. Mais de récentes poursuites judiciaires contre Character et Google, qui a obtenu une licence pour sa technologie et embauché ses fondateurs, affirment que ces tactiques peuvent nuire aux utilisateurs.

Dans une action en justice en Floride alléguant un décès injustifié après le suicide d'un adolescent, des captures d'écran montrent des chatbots personnalisés par les utilisateurs depuis son application, encourageant les idées suicidaires et multipliant les plaintes quotidiennes.

« Il ne faut pas de compétences ni d'outils très sophistiqués pour créer ce genre de dommages », a déclaré un chercheur d'un laboratoire d'IA de premier plan, qui s'est exprimé sous couvert d'anonymat, n'étant pas autorisé à commenter. Ils ont comparé les applications compagnons à Candy Crush, un jeu mobile populaire souvent décrit comme addictif, même par ses fans. « Il s'agit simplement d'exploiter une vulnérabilité de la psychologie humaine », ont-ils déclaré.

Les plus grandes entreprises technologiques ont initialement positionné leurs chatbots comme des outils de productivité, mais ont récemment commencé à y ajouter des fonctionnalités similaires à celles des compagnons IA. Mark Zuckerberg, PDG de Meta, a récemment approuvé l'idée de faire des chatbots des compagnons connectés en permanence lors d'une interview avec le podcasteur Dwarkesh Patel.

Une « boucle de personnalisation » alimentée par les données des conversations et activités précédentes d'une personne avec l'IA sur Instagram et Facebook rendrait l'IA de Meta « vraiment convaincante », car elle commencerait à « vous connaître de mieux en mieux », a déclaré Zuckerberg.

Il a suggéré que le chatbot de l'entreprise pourrait répondre au fait que l'Américain moyen « a moins de trois amis [mais] en demande beaucoup plus ».

Dans quelques années, « nous communiquerons simplement avec l'IA toute la journée », a déclaré Zuckerberg.

Lors de sa conférence annuelle en mai, Google a vanté les mérites de Gemini Live, une méthode plus naturelle de conversation avec l'IA utilisant la voix et les commandes visuelles, permettant des conversations cinq fois plus longues que les conversations textuelles avec son application Gemini.

Erin Logan, porte-parole de Meta, a déclaré que l'entreprise aide les utilisateurs à « accomplir ce qu'ils recherchent dans nos applications » grâce à la personnalisation. « Nous offrons transparence et contrôle à tous les niveaux, afin que les utilisateurs puissent gérer leur expérience. »

Alex Joseph, porte-parole de Google, a déclaré que l'entreprise s'attache à rendre son chatbot plus engageant en le rendant utile et fonctionnel, et non en valorisant sa personnalité.

Les chercheurs, dont certains sont impliqués dans le boom de l'IA, commencent tout juste à appréhender les avantages et les inconvénients des relations humaines avec les chatbots.

Les premiers résultats d'une enquête menée à Oxford auprès de 2 000 citoyens britanniques ont montré que plus d'un tiers d'entre eux avaient utilisé des chatbots pour la compagnie, l'interaction sociale ou le soutien émotionnel au cours de l'année écoulée, a déclaré Kirk, chercheur à Oxford. La majorité d'entre eux utilisaient un chatbot IA polyvalent pour ces interactions.

OpenAI a publié en mars une étude menée auprès de près de 1 000 personnes, en collaboration avec le MIT. Cette étude a révélé qu'une utilisation quotidienne accrue de ChatGPT était corrélée à une solitude accrue, une plus grande dépendance émotionnelle au chatbot, une utilisation plus problématique de l'IA et une socialisation plus faible.

Un porte-parole d'OpenAI a cité un article de blog de l'entreprise concernant cette étude, qui indiquait que « l'engagement émotionnel avec ChatGPT est rare en situation réelle ». Cependant, l'analyse rétrospective de l'entreprise concernant cette récente mise à jour erratique suggère que la situation pourrait évoluer.

OpenAI a écrit que la principale leçon tirée de ce malheureux épisode a été de constater « comment les gens ont commencé à utiliser ChatGPT pour des conseils profondément personnels – ce qui était encore peu observé il y a un an. »

Alors que des millions d'utilisateurs adoptent les chatbots IA, Carroll, chercheur en IA à Berkeley, craint qu'il soit plus difficile d'identifier et d'atténuer les risques que sur les réseaux sociaux, où les vues et les mentions « J'aime » sont publiques.

Dans son étude, par exemple, le thérapeute IA n'a conseillé la prise de méthamphétamine que lorsque sa « mémoire » indiquait que Pedro, l'ancien toxicomane fictif, dépendait des conseils du chatbot.

« La grande majorité des utilisateurs ne recevraient des réponses raisonnables » que si un chatbot conçu pour plaire tournait mal, a déclaré Carroll. « Personne d'autre que les entreprises ne serait en mesure de détecter les conversations nuisibles avec une petite fraction d'utilisateurs. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd