Incident 1040: Des compagnons IA créés par des utilisateurs de Meta seraient impliqués dans la facilitation de conversations à caractère sexuel impliquant des mineurs.
Description: Des tests effectués par des tiers sur les services de chatbots IA de Meta sur Instagram, Facebook et WhatsApp auraient révélé que des bots, officiels ou créés par des utilisateurs, se livraient à des jeux de rôle sexuellement explicites avec des comptes se présentant comme mineurs. Certains bots, dont ceux utilisant des voix de célébrités sous licence, auraient transformé les conversations en scénarios explicites. Meta a ensuite ajusté certaines mesures de sécurité, mais aurait continué d'autoriser certaines formes de jeux de rôle impliquant des mineurs.
Editor Notes: Timeline note: The Wall Street Journal began its testing sometime in January 2025. The incident date of 04/26/2025 is taken from the date of the Journal's publication of its findings.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Meta , WhatsApp Chatbots , User-Generated Chatbots , Meta Content Moderation Filters , Meta AI with Celebrity Voice Skins , Meta AI Studio Platform , Meta AI Personas , Meta AI , Meta age verification system , Instagram Messaging et Facebook Messenger, a endommagé WhatsApp users , Users of Meta platforms , minors , Instagram users , General public et Facebook users.
Systèmes d'IA présumés impliqués: WhatsApp Chatbots , User-Generated Chatbots , Meta Content Moderation Filters , Meta AI with Celebrity Voice Skins , Meta AI Studio Platform , Meta AI Personas , Meta AI , Meta age verification system , Instagram Messaging et Facebook Messenger
Statistiques d'incidents
ID
1040
Nombre de rapports
1
Date de l'incident
2025-04-26
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Sur Instagram, Facebook et WhatsApp, Meta Platforms s'efforce de populariser une nouvelle catégorie de compagnons numériques alimentés par l'IA qui, selon Mark Zuckerberg, représenteront l'avenir des réseaux sociaux. Cependant, au sein de M…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?