Incidentes Asociados

Parece que todo el mundo habla del poder del big data y de cómo ayuda a las empresas, los gobiernos y las organizaciones a tomar decisiones mejores y más eficientes. Pero rara vez mencionan que los grandes datos en realidad pueden perpetuar y exacerbar los sistemas existentes de racismo, discriminación y desigualdad.
Se supone que los grandes datos hacen la vida mejor. Compañías como Netflix lo usan para recomendar películas que le gustaría ver en función de lo que ha transmitido anteriormente. También hay aplicaciones públicas más amplias, como la predicción (y, por lo tanto, una respuesta más rápida) de brotes de enfermedades en función de patrones de búsqueda en línea de síntomas.
El problema con los grandes datos es que su aplicación y uso no son imparciales ni sesgados. La profesora de Harvard Latanya Sweeney, quien también dirige el Laboratorio de privacidad de datos de la universidad, realizó un estudio entre países de 120,000 anuncios de búsqueda en Internet y encontró una incidencia repetida de prejuicios raciales. Específicamente, su estudio analizó las compras de Google AdWords realizadas por empresas que brindan verificación de antecedentes penales. En ese momento, los resultados del estudio mostraron que cuando se realizaba una búsqueda de un nombre que estaba “racialmente asociado” con la comunidad negra, era mucho más probable que los resultados estuvieran acompañados de un anuncio que sugiriera que la persona tenía antecedentes penales. —independientemente de si lo hicieron o no (ver video a continuación). Este es solo uno de los muchos estudios de investigación que muestran un sesgo similar.
Si un empleador buscó el nombre de un posible empleado, solo para encontrarse con anuncios que sugerían que la persona había tenido un arresto anterior, puede imaginar cómo eso podría afectar las perspectivas de carrera del solicitante.