Incidents associés

Les algorithmes de recommandation d'Instagram connectent et promeuvent des comptes qui facilitent et vendent du contenu sur les abus sexuels sur des enfants, selon une enquête publiée mercredi.
Le service de partage de photos de Meta se démarque des autres plateformes de médias sociaux et « semble avoir un problème particulièrement grave » avec les comptes montrant du matériel d'abus sexuel d'enfants auto-généré , ou SG-CSAM, ont écrit des chercheurs de l’Université de Stanford dans une étude complémentaire. Ces comptes sont censés être gérés par des mineurs.
"En raison de l'utilisation généralisée des hashtags, de la durée de vie relativement longue des comptes vendeurs et, surtout, de l'efficacité de l'algorithme de recommandation, Instagram constitue le mécanisme de découverte clé pour cette communauté spécifique d'acheteurs et de vendeurs", selon l'étude citée dans l'enquête menée par le Wall Street Journal, l'Internet Observatory Cyber Policy Center de l'Université de Stanford et l'Université du Massachusetts Amherst.
Alors que les comptes pouvaient être trouvés par n'importe quel utilisateur recherchant des hashtags explicites, les chercheurs ont découvert que les algorithmes de recommandation d'Instagram les promouvaient également « auprès des utilisateurs consultant un compte sur le réseau, permettant ainsi la découverte de comptes sans recherche de mots clés ».
Un porte-parole de Meta a déclaré dans un communiqué que la société avait pris plusieurs mesures pour résoudre les problèmes et qu'elle avait « mis en place un groupe de travail interne » pour enquêter et répondre à ces allégations.
"L'exploitation des enfants est un crime horrible", a déclaré le porte-parole. "Nous travaillons de manière agressive pour lutter contre ce phénomène sur et en dehors de nos plateformes, et pour soutenir les forces de l'ordre dans leurs efforts pour arrêter et poursuivre les criminels à l'origine de ce phénomène."
Alex Stamos, ancien responsable de la sécurité de Facebook et l'un des auteurs du journal, a déclaré mercredi dans un tweet que les chercheurs se sont concentrés sur Instagram parce que sa « position comme le plus populaire auprès des adolescents du monde entier en fait un élément essentiel de cet écosystème. » Cependant, il a ajouté que "Twitter continue d'avoir de sérieux problèmes d'exploitation des enfants".
Stamos, qui est aujourd'hui directeur de l'Observatoire Internet de Stanford, a déclaré que le problème persistait après l'acquisition de Twitter par Elon Musk à la fin de l'année dernière.
"Ce que nous avons découvert, c'est que l'analyse de base de Twitter pour détecter les CSAM connus s'est interrompue après le rachat de M. Musk et n'a pas été réparée jusqu'à ce que nous les en informions", a écrit Stamos.
"Ils ont ensuite coupé notre accès à l'API", a-t-il ajouté, faisant référence au logiciel qui permet aux chercheurs d'accéder aux données de Twitter pour mener leurs études.
Plus tôt cette année, NBC News a signalé plusieurs comptes Twitter proposant ou vendant du CSAM sont restés disponible depuis des mois, même après que Musk se soit engagé à résoudre les problèmes d'exploitation des enfants sur le service de messagerie sociale.
Twitter n'a pas fourni de commentaire pour cette histoire.