Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 19: Sexist and Racist Google Adsense Advertisements

Descripción: Advertisements chosen by Google Adsense are reported as producing sexist and racist results.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Google, perjudicó a Women y Minority Groups.

Estadísticas de incidentes

ID
19
Cantidad de informes
27
Fecha del Incidente
2013-01-23
Editores
Sean McGregor
Applied Taxonomies
CSETv0, CSETv1, GMF, MIT

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Problem Nature

Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.
 

Unknown/unclear

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Software only

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

High

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Expert

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

No

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

Advertiser's preference, Google user's search history, Google user's purchase history

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

19

Special Interest Intangible Harm

An assessment of whether a special interest intangible harm occurred. This assessment does not consider the context of the intangible harm, if an AI was involved, or if there is characterizable class or subgroup of harmed entities. It is also not assessing if an intangible harm occurred. It is only asking if a special interest intangible harm occurred.
 

yes

Date of Incident Year

The year in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the year, estimate. Otherwise, leave blank. Enter in the format of YYYY
 

2013

Date of Incident Month

The month in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the month, estimate. Otherwise, leave blank. Enter in the format of MM
 

01

Date of Incident Day

The day on which the incident occurred. If a precise date is unavailable, leave blank. Enter in the format of DD
 

13

Estimated Date

“Yes” if the data was estimated. “No” otherwise.
 

No

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.1. Unfair discrimination and misrepresentation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+7
Discriminación en la entrega de anuncios en línea
+13
Google acusado de racismo después de que los nombres negros tienen un 25% más de probabilidades de mostrar anuncios para verificaciones de antecedentes penales
¿Cuánto importa tu nombre?+1
Sondeando el lado oscuro del sistema de segmentación de anuncios de Google
Lucha contra el sesgo algorítmico y el pensamiento homogéneo en IA¿Pueden las computadoras ser racistas? Big data, desigualdad y discriminaciónGoogle expone la discriminación racial en la entrega de anuncios en línea: estudio
Discriminación en la entrega de anuncios en línea

Discriminación en la entrega de anuncios en línea

arxiv.org

Discriminación en la entrega de anuncios en línea

Discriminación en la entrega de anuncios en línea

dataprivacylab.org

El racismo arraigado determina la ubicación de la publicidad en línea

El racismo arraigado determina la ubicación de la publicidad en línea

privacyinternational.org

Las búsquedas de Google exponen el sesgo racial, dice un estudio de nombres

Las búsquedas de Google exponen el sesgo racial, dice un estudio de nombres

bbc.com

El racismo está envenenando la entrega de anuncios en línea, dice profesor de Harvard

El racismo está envenenando la entrega de anuncios en línea, dice profesor de Harvard

technologyreview.com

Busca en Google un nombre 'negro', ¿obtienes un anuncio de arresto?

Busca en Google un nombre 'negro', ¿obtienes un anuncio de arresto?

theroot.com

Resultados de búsqueda de Google 'muestran sesgo racial'

Resultados de búsqueda de Google 'muestran sesgo racial'

telegraph.co.uk

Google acusado de racismo después de que los nombres negros tienen un 25% más de probabilidades de mostrar anuncios para verificaciones de antecedentes penales

Google acusado de racismo después de que los nombres negros tienen un 25% más de probabilidades de mostrar anuncios para verificaciones de antecedentes penales

dailymail.co.uk

Un estudio encuentra que los anuncios de búsqueda de Google tienen prejuicios raciales

Un estudio encuentra que los anuncios de búsqueda de Google tienen prejuicios raciales

businessinsider.com

Profesor de Harvard dice que es más probable que los nombres 'negros' en las búsquedas de Google ofrezcan anuncios de arrestos

Profesor de Harvard dice que es más probable que los nombres 'negros' en las búsquedas de Google ofrezcan anuncios de arrestos

archive.boston.com

¿Googlear puede ser racista?

¿Googlear puede ser racista?

theguardian.com

Los anuncios de búsqueda en línea exponen el sesgo racial, según un estudio

Los anuncios de búsqueda en línea exponen el sesgo racial, según un estudio

phys.org

Anuncio en línea de Google resulta culpable de perfilado racial, según un nuevo estudio

Anuncio en línea de Google resulta culpable de perfilado racial, según un nuevo estudio

huffingtonpost.com

La entrega de anuncios de Google puede mostrar "sesgo racial", dice un estudio de Harvard

La entrega de anuncios de Google puede mostrar "sesgo racial", dice un estudio de Harvard

abcnews.go.com

Los anuncios de Google revelan un sesgo contra los afroamericanos, revela un estudio de la Universidad de Harvard

Los anuncios de Google revelan un sesgo contra los afroamericanos, revela un estudio de la Universidad de Harvard

sitepronews.com

Profesor de Harvard detecta sesgo de búsqueda en la Web

Profesor de Harvard detecta sesgo de búsqueda en la Web

bostonglobe.com

¿Los resultados de los anuncios de Google son culpables de los perfiles raciales?

¿Los resultados de los anuncios de Google son culpables de los perfiles raciales?

cio.com

¿Google es racista o el resto de nosotros?

¿Google es racista o el resto de nosotros?

forbes.com

Investigador de Harvard: los anuncios generados por Google muestran prejuicios raciales

Investigador de Harvard: los anuncios generados por Google muestran prejuicios raciales

thecrimson.com

Discriminación en la entrega de anuncios en línea

Discriminación en la entrega de anuncios en línea

queue.acm.org

Latanya Sweeney, Discriminación racial en la entrega de anuncios en línea

Latanya Sweeney, Discriminación racial en la entrega de anuncios en línea

sites.law.berkeley.edu

¿Cuánto importa tu nombre?

¿Cuánto importa tu nombre?

freakonomics.com

Sondeando el lado oscuro del sistema de segmentación de anuncios de Google

Sondeando el lado oscuro del sistema de segmentación de anuncios de Google

technologyreview.com

Es menos probable que las mujeres vean anuncios de trabajos bien pagados en Google, muestra un estudio

Es menos probable que las mujeres vean anuncios de trabajos bien pagados en Google, muestra un estudio

theguardian.com

Lucha contra el sesgo algorítmico y el pensamiento homogéneo en IA

Lucha contra el sesgo algorítmico y el pensamiento homogéneo en IA

topbots.com

¿Pueden las computadoras ser racistas? Big data, desigualdad y discriminación

¿Pueden las computadoras ser racistas? Big data, desigualdad y discriminación

fordfoundation.org

Google expone la discriminación racial en la entrega de anuncios en línea: estudio

Google expone la discriminación racial en la entrega de anuncios en línea: estudio

rt.com

Discriminación en la entrega de anuncios en línea
arxiv.org · 2013
Traducido por IA

Una búsqueda en Google del nombre de una persona, como "Trevon Jones", puede generar un anuncio personalizado para registros públicos sobre Trevon que puede ser neutral, como "¿Buscando a Trevon Jones?", o puede sugerir un registro de arres…

Discriminación en la entrega de anuncios en línea
dataprivacylab.org · 2013
Traducido por IA

Preguntas frecuentes

  1. ¿No es más alta la tasa de arrestos de negros de todos modos?

Los anuncios aparecen independientemente de si la empresa que patrocina el anuncio tiene antecedentes penales por el nombre. La aparición de los anuncios n…

El racismo arraigado determina la ubicación de la publicidad en línea
privacyinternational.org · 2013
Traducido por IA

En 2013, la profesora de Harvard, Latanya Sweeney, descubrió que la discriminación racial impregna la entrega de publicidad en línea. En un estudio, descubrió que las búsquedas de nombres que se identifican como negros, como Revon, Lakisha …

Las búsquedas de Google exponen el sesgo racial, dice un estudio de nombres
bbc.com · 2013
Traducido por IA

Image caption El profesor Sweeney dijo que la tecnología podría usarse para contrarrestar la intolerancia racial.

Un estudio de las búsquedas de Google ha encontrado una "discriminación significativa" en los resultados de los anuncios según…

El racismo está envenenando la entrega de anuncios en línea, dice profesor de Harvard
technologyreview.com · 2013
Traducido por IA

"¿Alguna vez ha sido arrestado? Imagine que la pregunta no aparece en la soledad de sus pensamientos mientras lee este documento, sino que aparece explícitamente cada vez que alguien consulta su nombre en un motor de búsqueda”.

Captura de p…

Busca en Google un nombre 'negro', ¿obtienes un anuncio de arresto?
theroot.com · 2013
Traducido por IA

Ingrese un nombre en Google y es probable que termine con los anuncios correspondientes junto con sus resultados. Adivina qué tipos de nombres tienen más probabilidades de generar anuncios relacionados con arrestos que sugieran que la perso…

Resultados de búsqueda de Google 'muestran sesgo racial'
telegraph.co.uk · 2013
Traducido por IA

Los nombres típicamente asociados con personas negras tienen más probabilidades de producir anuncios relacionados con actividades delictivas, según el artículo de la Universidad de Harvard.

Una búsqueda en Google de un nombre como Tom Smith…

Google acusado de racismo después de que los nombres negros tienen un 25% más de probabilidades de mostrar anuncios para verificaciones de antecedentes penales
dailymail.co.uk · 2013
Traducido por IA

Google acusado de racismo después de que los nombres negros tienen un 25% más de probabilidades de mostrar anuncios para verificaciones de antecedentes penales

El profesor encuentra una "discriminación significativa" en los resultados de lo…

Un estudio encuentra que los anuncios de búsqueda de Google tienen prejuicios raciales
businessinsider.com · 2013
Traducido por IA

Los anuncios vinculados a los resultados de búsqueda de Google pueden tener sesgos raciales debido a cómo ciertos nombres se asocian con negros o blancos, según un nuevo estudio.

La profesora de la Universidad de Harvard, Latanya Sweeney, e…

Profesor de Harvard dice que es más probable que los nombres 'negros' en las búsquedas de Google ofrezcan anuncios de arrestos
archive.boston.com · 2013
Traducido por IA

¿Google está sesgando los anuncios que publica en función de si un nombre suena "negro"?

Esa es la conclusión de un artículo de la profesora de Harvard Latanya Sweeney, quien escribió en su artículo que las búsquedas de nombres que pueden i…

¿Googlear puede ser racista?
theguardian.com · 2013
Traducido por IA

Lectores, odio decírtelo, pero según Harvard, Internet es racista. Le sugiero que deje de usarlo de inmediato a menos que desee que su patrocinio de Google y otros ennegrezcan su nombre. En realidad, err, tal vez espere hasta que termine de…

Los anuncios de búsqueda en línea exponen el sesgo racial, según un estudio
phys.org · 2013
Traducido por IA

La página de búsqueda de Google aparece en la pantalla de una computadora en Washington el 30 de agosto de 2010. Los anuncios vinculados a los resultados de búsqueda de Google pueden tener sesgos raciales debido a cómo ciertos nombres se as…

Anuncio en línea de Google resulta culpable de perfilado racial, según un nuevo estudio
huffingtonpost.com · 2013
Traducido por IA

Todos los candidatos a un puesto de trabajo viven con el temor de que una búsqueda en Google pueda revelar indiscreciones incriminatorias de un pasado lejano. Pero un nuevo estudio que examina el sesgo racial en la redacción de los anuncios…

La entrega de anuncios de Google puede mostrar "sesgo racial", dice un estudio de Harvard
abcnews.go.com · 2013
Traducido por IA

Una búsqueda en Google de un "nombre asociado racialmente" tiene más probabilidades de generar anuncios que sugieran que la persona tiene antecedentes penales, según un estudio realizado por un profesor de Harvard.

Latanya Sweeney, profesor…

Los anuncios de Google revelan un sesgo contra los afroamericanos, revela un estudio de la Universidad de Harvard
sitepronews.com · 2013
Traducido por IA

6 de febrero de 2013

'Arresto' aparece con mayor frecuencia en anuncios con nombres 'negros'

La entrega de anuncios de Google tiene un sesgo racial significativo, según un estudio realizado por un profesor de la Universidad de Harvard.

La p…

Profesor de Harvard detecta sesgo de búsqueda en la Web
bostonglobe.com · 2013
Traducido por IA

Resultados de la página web de los anuncios que aparecieron en la pantalla cuando la profesora de Harvard Latanya Sweeney escribió su nombre en una búsqueda de Google. Los anuncios presentaban servicios para registros de arrestos. Sweeney r…

¿Los resultados de los anuncios de Google son culpables de los perfiles raciales?
cio.com · 2013
Traducido por IA

¿Es el algoritmo de búsqueda de Google culpable de racismo? Un estudio realizado por un investigador de Harvard descubrió que podría serlo.

La profesora Latanya Sweeney dice que encontró una "discriminación estadísticamente significativa" a…

¿Google es racista o el resto de nosotros?
forbes.com · 2013
Traducido por IA

Una pequeña y encantadora investigación que muestra que los anuncios que se muestran junto con las búsquedas de Google podrían, si así lo desearas, ser vistos como un tanto racistas:

Un estudio reciente de las búsquedas en Google realizado …

Investigador de Harvard: los anuncios generados por Google muestran prejuicios raciales
thecrimson.com · 2013
Traducido por IA

ACTUALIZADO: 20 de febrero de 2013 a las 10:35 a. m.

Un investigador de Harvard descubrió que los nombres típicamente afroamericanos tienen más probabilidades de estar vinculados a antecedentes penales en los anuncios generados por Google e…

Discriminación en la entrega de anuncios en línea
queue.acm.org · 2013
Traducido por IA

El número de enero/febrero de 2019 de acmqueue ya está disponible

Los suscriptores y miembros de ACM Professional inician sesión aquí

PDF

2 de abril de 2013

Volumen 11, número 3

Discriminación en la entrega de anuncios en línea

Anuncios de …

Latanya Sweeney, Discriminación racial en la entrega de anuncios en línea
sites.law.berkeley.edu · 2013
Traducido por IA

Latanya Sweeney, Discriminación racial en la entrega de anuncios en línea

Comentario de: Margaret Hu

PLSC 2013

Versión publicada disponible aquí: http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2208240

Resumen del borrador del taller:

Al…

¿Cuánto importa tu nombre?
freakonomics.com · 2013
Traducido por IA

Escucha ahora:

Temporada 4, Episodio 2

Cuando la profesora de Harvard Latanya Sweeney buscó su nombre en Google un día, notó algo extraño: apareció un anuncio para un sitio web de verificación de antecedentes en los resultados, con el títul…

Sondeando el lado oscuro del sistema de segmentación de anuncios de Google
technologyreview.com · 2015
Traducido por IA

Es bien sabido que Google y otras empresas rastrean nuestros movimientos en la Web para orientarnos con anuncios. No se sabe exactamente cómo se usa esa información, pero un trabajo de investigación presentado la semana pasada sugiere que a…

Es menos probable que las mujeres vean anuncios de trabajos bien pagados en Google, muestra un estudio
theguardian.com · 2015
Traducido por IA

Las mujeres que buscan trabajo tienen muchas menos probabilidades de ver anuncios en Google de trabajos bien remunerados que los hombres, según han descubierto los investigadores.

El equipo de investigadores de Carnegie Mellon construyó una…

Lucha contra el sesgo algorítmico y el pensamiento homogéneo en IA
topbots.com · 2017
Traducido por IA

Cuando Timnit Gebru asistió a una prestigiosa conferencia de investigación de IA el año pasado, contó con 6 personas negras en la audiencia de un estimado de 8500. Y solo una mujer negra: ella misma.

Como candidato a doctorado en la Univers…

¿Pueden las computadoras ser racistas? Big data, desigualdad y discriminación
fordfoundation.org · 2018
Traducido por IA

Parece que todo el mundo habla del poder del big data y de cómo ayuda a las empresas, los gobiernos y las organizaciones a tomar decisiones mejores y más eficientes. Pero rara vez mencionan que los grandes datos en realidad pueden perpetuar…

Google expone la discriminación racial en la entrega de anuncios en línea: estudio
rt.com · 2019
Traducido por IA

Los algoritmos de búsqueda de Google exponen la discriminación racial, según afirma un nuevo estudio realizado por un profesor de Harvard. Afirma que es más probable que aparezcan anuncios relacionados con antecedentes penales cuando se "bu…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Gender Biases of Google Image Search

Google Image Search Has A Gender Bias Problem

Apr 2015 · 11 informes
COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 informes
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Gender Biases of Google Image Search

Google Image Search Has A Gender Bias Problem

Apr 2015 · 11 informes
COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

A Popular Algorithm Is No Better at Predicting Crimes Than Random People

May 2016 · 22 informes
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df