Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3249

Incidents associés

Incident 5831 Rapport
Instagram Algorithms Allegedly Promote Accounts Facilitating Child Sex Abuse Content

Loading...
Les algorithmes d'Instagram font la promotion des comptes qui partagent du contenu pédopornographique, selon des chercheurs
cnbc.com · 2023

Les algorithmes de recommandation d'Instagram connectent et promeuvent des comptes qui facilitent et vendent du contenu sur les abus sexuels sur des enfants, selon une enquête publiée mercredi.

Le service de partage de photos de Meta se démarque des autres plateformes de médias sociaux et « semble avoir un problème particulièrement grave » avec les comptes montrant du matériel d'abus sexuel d'enfants auto-généré , ou SG-CSAM, ont écrit des chercheurs de l’Université de Stanford dans une étude complémentaire. Ces comptes sont censés être gérés par des mineurs.

"En raison de l'utilisation généralisée des hashtags, de la durée de vie relativement longue des comptes vendeurs et, surtout, de l'efficacité de l'algorithme de recommandation, Instagram constitue le mécanisme de découverte clé pour cette communauté spécifique d'acheteurs et de vendeurs", selon l'étude citée dans l'enquête menée par le Wall Street Journal, l'Internet Observatory Cyber Policy Center de l'Université de Stanford et l'Université du Massachusetts Amherst.

Alors que les comptes pouvaient être trouvés par n'importe quel utilisateur recherchant des hashtags explicites, les chercheurs ont découvert que les algorithmes de recommandation d'Instagram les promouvaient également « auprès des utilisateurs consultant un compte sur le réseau, permettant ainsi la découverte de comptes sans recherche de mots clés ».

Un porte-parole de Meta a déclaré dans un communiqué que la société avait pris plusieurs mesures pour résoudre les problèmes et qu'elle avait « mis en place un groupe de travail interne » pour enquêter et répondre à ces allégations.

"L'exploitation des enfants est un crime horrible", a déclaré le porte-parole. "Nous travaillons de manière agressive pour lutter contre ce phénomène sur et en dehors de nos plateformes, et pour soutenir les forces de l'ordre dans leurs efforts pour arrêter et poursuivre les criminels à l'origine de ce phénomène."

Alex Stamos, ancien responsable de la sécurité de Facebook et l'un des auteurs du journal, a déclaré mercredi dans un tweet que les chercheurs se sont concentrés sur Instagram parce que sa « position comme le plus populaire auprès des adolescents du monde entier en fait un élément essentiel de cet écosystème. » Cependant, il a ajouté que "Twitter continue d'avoir de sérieux problèmes d'exploitation des enfants".

Stamos, qui est aujourd'hui directeur de l'Observatoire Internet de Stanford, a déclaré que le problème persistait après l'acquisition de Twitter par Elon Musk à la fin de l'année dernière.

"Ce que nous avons découvert, c'est que l'analyse de base de Twitter pour détecter les CSAM connus s'est interrompue après le rachat de M. Musk et n'a pas été réparée jusqu'à ce que nous les en informions", a écrit Stamos.

"Ils ont ensuite coupé notre accès à l'API", a-t-il ajouté, faisant référence au logiciel qui permet aux chercheurs d'accéder aux données de Twitter pour mener leurs études.

Plus tôt cette année, NBC News a signalé plusieurs comptes Twitter proposant ou vendant du CSAM sont restés disponible depuis des mois, même après que Musk se soit engagé à résoudre les problèmes d'exploitation des enfants sur le service de messagerie sociale.

Twitter n'a pas fourni de commentaire pour cette histoire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd