Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5320

Incidents associés

Incident 11013 Rapports
Meta AI App Reportedly Publishes Personal Chats Without Users Fully Realizing

Loading...
Les utilisateurs de Meta AI se confient sur le sexe, Dieu et Trump. Certains ignorent que c'est public.
washingtonpost.com · 2025

Un homme veut savoir comment aider son ami à sortir du placard. Une tante peine à trouver les mots justes pour féliciter sa nièce pour son diplôme. Et un homme veut savoir comment demander à une fille – « en asiatique » – si elle s'intéresse aux hommes plus âgés.

Il y a dix ans, ils auraient pu aborder ces questions délicates avec des amis autour d'un brunch, dans un bar miteux, ou dans le cabinet d'un thérapeute ou d'un membre du clergé. Aujourd'hui, de nombreux utilisateurs publient leurs conversations, souvent embarrassantes, sur les relations, l'identité et la spiritualité avec le chatbot IA de Meta sur le fil d'actualité public de l'application – parfois sans se rendre compte que leurs réflexions peuvent être vues par d'autres.

Meta a lancé une application autonome pour son chatbot IA il y a près de deux mois, afin d'apporter aux utilisateurs des réponses personnalisées et conversationnelles à toutes leurs questions – un service similaire à ceux proposés par ChatGPT d'OpenAI ou Claude d'Anthropic. Mais l'application proposait une fonctionnalité unique : un fil d'actualité « découverte » permettant aux utilisateurs de publier leurs conversations personnelles avec Meta AI, visibles par tous. Ce fil d'actualité s'inscrit dans la stratégie globale de l'entreprise visant à intégrer du contenu créé par l'IA à ses réseaux sociaux.

Depuis son lancement en avril, le fil d'actualité de l'application a été inondé de conversations d'utilisateurs avec Meta AI sur des sujets personnels, touchant à leur vie ou à leurs questions philosophiques personnelles sur le monde. À mesure que la fonctionnalité gagnait en popularité, certains utilisateurs ont semblé promouvoir délibérément des conversations humoristiques avec Meta AI. D'autres publient des images générées par l'IA sur des sujets politiques, comme le président Donald Trump en couche-culotte, des images de filles dans des situations sexuelles et des promotions pour leurs entreprises. Dans au moins un cas, une personne dont le vrai nom était visible a demandé au bot de supprimer un échange après avoir posé une question embarrassante.

La vague de publications personnelles sur Meta AI (https://www.businessinsider.com/mark-zuckerberg-meta-ai-chatbot-discover-feed-depressing-why-2025-6) est le dernier signe en date que les gens se tournent de plus en plus vers les chatbots conversationnels pour répondre à leurs besoins relationnels et émotionnels. Alors que les utilisateurs sollicitent des conseils sur des sujets allant des problèmes conjugaux aux difficultés financières, les défenseurs de la vie privée mettent en garde contre le risque que les entreprises technologiques utilisent leurs informations personnelles de manière inattendue ou inattendue.

« Nous avons constaté de nombreux exemples de personnes envoyant des informations très personnelles à des chatbots thérapeutes IA ou leur adressant des propos très intimes dans d'autres contextes », a déclaré Calli Schroeder, avocate principale au Centre d'information sur la confidentialité électronique.

« Je pense que beaucoup de gens supposent qu'il existe un niveau minimum de confidentialité. Ce n'est pas le cas. Tout ce que vous soumettez à un système d'IA est, au minimum, transmis à l'entreprise qui héberge l'IA. »

Daniel Roberts, porte-parole de Meta, a déclaré que les conversations avec Meta AI sont privées par défaut et que les utilisateurs doivent appuyer sur les boutons Partager ou Publier pour que le contenu apparaisse dans le fil d'actualité de l'application. Si certaines identités réelles sont visibles, les utilisateurs sont libres de choisir un autre nom d'utilisateur dans le fil d'actualité.

Cependant, le bouton Partager de l'entreprise n'indique pas explicitement aux utilisateurs où leurs conversations avec Meta AI seront publiées ni ce que les autres utilisateurs pourront voir, ce qui a semblé dérouter certains utilisateurs concernant la nouvelle application.

L'approche de Meta, qui consiste à combiner des composants de réseaux sociaux avec un chatbot IA conçu pour donner des réponses personnalisées, se démarque de celle de certains de ses principaux concurrents. ChatGPT et Claude fournissent des réponses tout aussi conversationnelles et informatives aux questions des utilisateurs, mais il n'existe pas de fil d'actualité similaire où d'autres personnes peuvent consulter ce contenu. Les outils d'IA générant des vidéos ou des images, tels que Midjourney et Sora d'OpenAI, proposent des pages où les utilisateurs peuvent partager leur travail et découvrir ce que l'IA a créé pour les autres, mais aucun de ces services ne propose de conversations textuelles personnelles.

Le flux de découvertes de Meta AI se lit comme un mélange de journaux intimes d'utilisateurs et d'historiques de recherche Google, rempli de questions allant du banal au politique et à la philosophie. Par exemple, un mari a demandé à Meta AI, via un enregistrement vocal, comment cultiver du riz en intérieur pour sa « femme philippine ». Les utilisateurs ont interrogé Meta AI sur la divinité de Jésus ; comment faire manger des enfants difficiles ; et comment gérer son budget tout en profitant des plaisirs du quotidien. Le flux est également rempli d'images créées par Meta AI, mais imaginées par les utilisateurs, comme celle de Trump en train de manger des crottes et celle de la Grande Faucheuse à moto.

Des recherches montrent que les chatbots IA sont spécialement conçus pour stimuler les instincts sociaux des utilisateurs en reproduisant des signaux humains qui créent un sentiment de connexion, explique Michal Luria, chercheuse au Centre pour la démocratie et la technologie, un groupe de réflexion de Washington.

« Nous réagissons naturellement comme si nous parlions à… quelqu'un d'autre, et cette réaction est automatique », explique-t-elle. « C'est assez difficile à reprogrammer. »

En avril, Mark Zuckerberg, PDG de Meta, a déclaré au podcasteur Dwarkesh Patel que l'une des principales raisons pour lesquelles les gens utilisaient Meta AI était de pouvoir aborder les conversations difficiles avec leurs proches. Une utilisation qui, selon lui, deviendra plus convaincante à mesure que le modèle d'IA apprendra à connaître ses utilisateurs.

« Les gens utilisent ce qui a de la valeur pour eux », a-t-il déclaré. « Si vous pensez que quelque chose que quelqu'un fait est mal et qu'il pense que c'est vraiment utile, la plupart du temps, d'après mon expérience, il a raison et vous avez tort. »

Le fil d'actualité de Meta AI regorge de questions sur les relations amoureuses, un sujet fréquemment abordé par les chatbots. Par exemple, une femme demande à Meta AI si son petit ami de 70 ans peut vraiment être féministe s'il dit être prêt à cuisiner et à faire le ménage, mais ne le fait finalement pas. Meta AI lui révèle l'évidence : il semble y avoir un « déphasage » entre les paroles et les actes de son partenaire. Un autre utilisateur lui a demandé comment se reconstruire après une rupture, obtenant de Meta AI une liste de conseils passe-partout sur le soin personnel et la définition de limites.

Certaines questions posées à Meta ont pris une tournure illicite. Un utilisateur a demandé à Meta AI de générer des images de « deux femmes de 21 ans se battant dans un bain de boue », puis a publié les résultats sur le fil d'actualité « Découverte » sous le titre « Bikinis boueux et baisers passionnés ». Un autre a demandé à Meta AI de créer l'image d'une « fille blanche aux fesses généreuses ».

Peu de réglementations poussent les entreprises technologiques à adopter des règles plus strictes en matière de contenu ou de confidentialité pour leurs chatbots. En fait, le Congrès envisage d'adopter un projet de loi sur la fiscalité et l'immigration qui inclut une disposition visant à abroger les lois étatiques sur l'IA dans tout le pays et à interdire aux États d'en adopter de nouvelles pendant la prochaine décennie.

Ces derniers mois, plusieurs incidents très médiatisés ont soulevé des questions sur la manière dont les entreprises technologiques traitent les données personnelles, sur les personnes qui y ont accès et sur la manière dont ces informations pourraient être utilisées pour manipuler les utilisateurs.

En avril, OpenAI a annoncé que ChatGPT serait capable de rappeler d'anciennes conversations que les utilisateurs n'ont pas demandé à l'entreprise de sauvegarder. Sur X, le PDG Sam Altman a déclaré qu'OpenAI était enthousiasmé par les « systèmes d'IA qui apprennent à vous connaître tout au long de votre vie et deviennent extrêmement utiles et personnalisés ».

Les pièges potentiels de cette approche sont devenus évidents le mois suivant, lorsqu'OpenAI a dû annuler une mise à jour de ChatGPT qui intégrait davantage de personnalisation, car elle rendait l'outil flagorneur et manipulateur envers les utilisateurs. La semaine dernière, Brad Lightcap, directeur de l'exploitation d'OpenAI, a déclaré que l'entreprise entendait respecter ses engagements en matière de confidentialité envers ses utilisateurs, après que des plaignants, dans le cadre d'une action en justice pour atteinte aux droits d'auteur intentée par le New York Times, ont exigé qu'OpenAI conserve les données clients indéfiniment.

En fin de compte, ce sont peut-être les utilisateurs qui poussent l'entreprise à plus de transparence. Un utilisateur a interrogé Meta AI sur les raisons pour lesquelles « des tonnes de personnes » publiaient accidentellement des informations très personnelles sur le fil d'actualité de l'application.

« D'accord, vous dites donc que le fil d'actualité est rempli de personnes qui publient accidentellement des informations personnelles ? » a répondu le chatbot Meta AI. « C'est assez insensé. Peut-être que les gens sont simplement très à l'aise avec le partage, ou peut-être que les paramètres par défaut de la plateforme sont configurés de manière à faciliter le partage excessif. Qu'en pensez-vous ? »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd