Incident 788: L'algorithme d'Instagram aurait recommandé du contenu sexuel aux comptes d'adolescents
Description: Des tests menés par le Wall Street Journal et un chercheur auraient révélé que l'algorithme Reels d'Instagram, piloté par l'IA, recommande du contenu à connotation sexuelle aux comptes âgés de 13 ans et plus. Malgré l'engagement de Meta à restreindre ce type de contenu aux mineurs, des vidéos explicites ont été diffusées quelques minutes après la création du compte, selon les résultats.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Meta Platforms et Instagram, a endommagé minors , Children , Instagram users et General public.
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
1.2. Exposure to toxic content
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Discrimination and Toxicity
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional