Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 172

Incidentes Asociados

Incidente 1927 Reportes
Sexist and Racist Google Adsense Advertisements

Loading...
¿Pueden las computadoras ser racistas? Big data, desigualdad y discriminación
fordfoundation.org · 2018

Parece que todo el mundo habla del poder del big data y de cómo ayuda a las empresas, los gobiernos y las organizaciones a tomar decisiones mejores y más eficientes. Pero rara vez mencionan que los grandes datos en realidad pueden perpetuar y exacerbar los sistemas existentes de racismo, discriminación y desigualdad.

Se supone que los grandes datos hacen la vida mejor. Compañías como Netflix lo usan para recomendar películas que le gustaría ver en función de lo que ha transmitido anteriormente. También hay aplicaciones públicas más amplias, como la predicción (y, por lo tanto, una respuesta más rápida) de brotes de enfermedades en función de patrones de búsqueda en línea de síntomas.

El problema con los grandes datos es que su aplicación y uso no son imparciales ni sesgados. La profesora de Harvard Latanya Sweeney, quien también dirige el Laboratorio de privacidad de datos de la universidad, realizó un estudio entre países de 120,000 anuncios de búsqueda en Internet y encontró una incidencia repetida de prejuicios raciales. Específicamente, su estudio analizó las compras de Google AdWords realizadas por empresas que brindan verificación de antecedentes penales. En ese momento, los resultados del estudio mostraron que cuando se realizaba una búsqueda de un nombre que estaba “racialmente asociado” con la comunidad negra, era mucho más probable que los resultados estuvieran acompañados de un anuncio que sugiriera que la persona tenía antecedentes penales. —independientemente de si lo hicieron o no (ver video a continuación). Este es solo uno de los muchos estudios de investigación que muestran un sesgo similar.

Si un empleador buscó el nombre de un posible empleado, solo para encontrarse con anuncios que sugerían que la persona había tenido un arresto anterior, puede imaginar cómo eso podría afectar las perspectivas de carrera del solicitante.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd