Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1366

Incidents associés

Incident 1927 Rapports
Sexist and Racist Google Adsense Advertisements

Loading...
Explorer le côté obscur du système de ciblage publicitaire de Google
technologyreview.com · 2015

Que Google et d'autres sociétés suivent nos mouvements sur le Web pour nous cibler avec des publicités est bien connu. Comment exactement ces informations sont utilisées ne l'est pas, mais un document de recherche présenté la semaine dernière suggère que certains des jugements algorithmiques qui émergent du système publicitaire de Google pourraient sembler peu recommandables à de nombreuses personnes.

Des chercheurs de l'Université Carnegie Mellon et de l'International Computer Science Institute ont créé un outil appelé AdFisher pour sonder le ciblage des publicités diffusées par Google sur des sites Web tiers. Ils ont découvert que les faux internautes considérés par Google comme des demandeurs d'emploi masculins étaient beaucoup plus susceptibles que les demandeurs d'emploi équivalents de se voir montrer une paire d'annonces pour des emplois de direction bien rémunérés lorsqu'ils visitaient plus tard un site Web d'actualités.

AdFisher a également montré qu'un outil de transparence de Google appelé "paramètres des annonces", qui vous permet d'afficher et de modifier les "intérêts" que l'entreprise a déduits pour vous, ne reflète pas toujours les informations potentiellement sensibles utilisées pour vous cibler. La navigation sur des sites destinés aux personnes ayant des problèmes de toxicomanie, par exemple, a déclenché une vague d'annonces pour des programmes de réadaptation, mais la page de transparence de Google n'a pas changé.

La cause exacte de ces modèles spécifiques n'est pas claire, car le système de diffusion d'annonces de Google est très complexe. Google utilise ses données pour cibler les annonces, mais les acheteurs d'annonces peuvent prendre certaines décisions concernant les données démographiques qui les intéressent et peuvent également utiliser leurs propres sources de données sur l'activité en ligne des internautes pour effectuer un ciblage supplémentaire pour certains types d'annonces. Les exemples ne violent pas non plus de règles de confidentialité spécifiques, bien que la politique de Google interdise le ciblage sur la base de "conditions de santé". Pourtant, dit Anupam Datta, professeur agrégé à l'Université Carnegie Mellon qui a aidé à développer AdFisher, ils montrent le besoin d'outils qui découvrent comment les sociétés de publicité en ligne différencient les gens.

"Je pense que nos résultats suggèrent qu'il y a des parties de l'écosystème publicitaire où des types de discrimination commencent à émerger et qu'il y a un manque de transparence", déclare Datta. "C'est préoccupant d'un point de vue sociétal." Les systèmes publicitaires comme celui de Google influencent les informations auxquelles les gens sont exposés et potentiellement même les décisions qu'ils prennent, il est donc important de comprendre comment ces systèmes utilisent les données nous concernant, dit-il.

Même les entreprises qui gèrent des réseaux publicitaires en ligne n'ont pas une bonne idée des déductions que leurs systèmes tirent sur les gens et de la manière dont ces déductions sont utilisées, explique Datta. Son groupe a commencé à collaborer avec Microsoft pour développer une version d'AdFisher à utiliser au sein de l'entreprise, afin de rechercher des schémas potentiellement inquiétants dans le ciblage publicitaire sur le moteur de recherche Bing. Un article de Datta et de deux collègues – Michael Tschantz, de l'International Computer Science Institute, et Amit Datta, également de Carnegie Mellon – a été présenté au Symposium Privacy Enhancing Technologies à Philadelphie jeudi dernier.

Google n'a pas officiellement répondu lorsque les chercheurs ont contacté l'entreprise au sujet de leurs découvertes à la fin de l'année dernière, disent-ils. Cependant, en juin dernier, l'équipe a remarqué que Google avait ajouté une clause de non-responsabilité à sa page de paramètres publicitaires. On dit désormais que les catégories d'intérêt affichées ne contrôlent que "certaines des annonces Google que vous voyez", et non celles pour lesquelles des tiers ont utilisé leurs propres données. Datta dit que cela limite considérablement l'utilité de l'outil de transparence de Google, qui pourrait probablement être conçu pour révéler de telles informations si l'entreprise le souhaitait. "Ils diffusent ces publicités, et s'ils le voulaient, ils pourraient refléter ces intérêts", dit-il.

"Les annonceurs peuvent choisir de cibler le public qu'ils souhaitent atteindre, et nous avons des politiques qui guident le type d'annonces basées sur les intérêts qui sont autorisées", a déclaré Andrea Faville, porte-parole de Google, dans un e-mail. "Nous offrons de la transparence aux utilisateurs avec les avis "Pourquoi cette annonce" et les paramètres des annonces, ainsi que la possibilité de désactiver les annonces basées sur les centres d'intérêt." Google examine la méthodologie de l'étude pour essayer de comprendre ses conclusions.

L'outil AdFisher fonctionne en envoyant des centaines ou des milliers de navigateurs Web automatisés sur des pistes soigneusement choisies à travers le Web de telle sorte qu'un réseau de ciblage publicitaire déduit certains intérêts ou activités. Le logiciel enregistre ensuite les annonces qui sont diffusées lorsque chaque navigateur automatisé visite un site Web d'actualités qui utilise le réseau publicitaire de Google, ainsi que toute modification apportée à la page des paramètres des annonces. Dans certaines expériences, cette page est modifiée pour rechercher les différences entre la façon dont les publicités sont ciblées sur, par exemple, les hommes et les femmes. AdFisher signale automatiquement toute différence statistiquement significative dans la façon dont les publicités sont ciblées à l'aide des catégories d'intérêt ou des données démographiques particulières qu'il étudie.

Roxana Geambasu, professeure adjointe à l'Université de Columbia, affirme que la manière dont AdFisher peut extraire statistiquement des modèles à partir de la complexité des publicités ciblées présente une valeur considérable. Un outil appelé XRay, que son propre groupe de recherche a publié l'année dernière, peut désosser la connexion entre les publicités présentées aux utilisateurs de Gmail et les mots-clés dans leurs messages. Par exemple, les publicités pour les prêts automobiles à faible exigence peuvent être ciblées sur ceux qui utilisent des mots associés à des difficultés financières.

Cependant, Geambasu dit que les résultats de XRay et d'AdFisher ne sont encore que suggestifs. "Vous ne pouvez pas tirer de grandes conclusions, car nous n'avons pas beaucoup étudié cela et ces exemples pourraient être de rares exceptions", dit-elle. "Ce dont nous avons besoin maintenant, c'est d'une infrastructure et d'outils pour étudier ces systèmes à une échelle beaucoup plus grande." Être capable de regarder comment les algorithmes ciblent et suivent les gens pour faire des choses comme diffuser des publicités ou ajuster le prix de l'assurance et d'autres produits est probablement vital si les groupes de défense des droits civiques et les régulateurs veulent suivre le rythme de l'évolution de la façon dont les entreprises utilisent les données, dit-elle .

Un rapport de la Maison Blanche sur l'impact des "big data" de l'année dernière est arrivé à des conclusions similaires. "L'analyse des données a le potentiel d'éclipser les protections de longue date des droits civils dans la manière dont les informations personnelles sont utilisées dans le logement, le crédit, l'emploi, la santé, l'éducation et le marché", a-t-il déclaré.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd