Incidentes Asociados

Si buscó "tres adolescentes blancos" en Google Imágenes a principios de este mes, el resultado mostró personas brillantes y felices en masa: un R.E.M. Canción en formato JPG. Las imágenes, en su mayoría fotos de archivo, mostraban a hombres y mujeres jóvenes caucásicos riéndose, sosteniendo equipos deportivos o captados caprichosamente en medio de una selfie.
Si buscó "tres adolescentes negros", el algoritmo ofreció una variedad de fotos policiales.
Busca 'tres adolescentes negros' en Google y esto es lo que ves
Kabir Alli registró los resultados muy diferentes que vio cuando buscó "tres adolescentes negros" y "tres adolescentes blancos" en Google Imágenes (Twitter/Kabir Alli)
Un estudiante de último año de Clover Hill High School, en Midlothian, Virginia, que pronto se graduará, llamado Kabir Alli, registró la disparidad y, como lo haría cualquier joven emprendedor de 18 años, publicó el video en Twitter. El resultado fue una respuesta viral rápida y masiva, y su video se compartió más de 65.000 veces. (Los videógrafos de YouTube y otros habían hecho observaciones similares antes, pero no se habían alojado tan profundamente en la conciencia de Internet).
Antes de hacer el video, los amigos le contaron a Alli lo que encontraría en la búsqueda de Google. Pero el adolescente dice que verlo suceder en persona fue una sorpresa. “No pensé que en realidad sería cierto”, dijo Alli en una entrevista con USA Today. “Cuando vi los resultados, me sorprendió mucho”.
Google respondió que su algoritmo de búsqueda refleja la disponibilidad y frecuencia del contenido en línea. “Esto significa que, a veces, las representaciones desagradables de temas delicados en línea pueden afectar los resultados de búsqueda de imágenes que aparecen para una consulta determinada”, dijo la compañía en un comunicado al Huffington Post UK. “Estos resultados no reflejan las propias opiniones o creencias de Google; como empresa, valoramos mucho la diversidad de perspectivas, ideas y culturas”.
Los algoritmos como los que impulsan el motor de búsqueda de Google tienden a ser esotéricos o secretos comerciales o ambos, lo que le da al software un aire de misterio. Teniendo en cuenta que los algoritmos son, después de todo, líneas de código, es comprensible por qué querríamos percibirlos como tomadores de decisiones imparciales e infalibles. Esa es una visión tentadora, pero también es, dicen los expertos, incorrecta.
Lo que no sabes sobre los algoritmos de Internet te está perjudicando. (Y probablemente no sepas mucho)
Como dijo David Oppenheimer, profesor de derecho de la Universidad de California en Berkeley, sobre los algoritmos al New York Times en 2015: “Incluso si no están diseñados con la intención de discriminar a esos grupos, si reproducen las preferencias sociales incluso de una manera completamente racional. , también reproducen esas formas de discriminación”.
Las búsquedas de imágenes de Google de "hermosas rastas" arrojan principalmente personas blancas con rastas, como señaló Buzzfeed UK en abril, y algunos críticos citan esta inclinación eurocéntrica como un ejemplo de racismo. Alli, por su parte, le dijo a USA Today que no cree que Google sea racista y dijo que "los hombres negros que toman malas decisiones también juegan un papel importante". Pero otros no están de acuerdo con que Google deba ser absuelto tan fácilmente. Safiya Umoja Noble, profesora de estudios afroamericanos en UCLA, argumentó a USA Today que Google tiene la responsabilidad de eliminar el sesgo racial de su algoritmo.
“Constantemente emite una declaración de que no es responsable del resultado de su algoritmo”, dijo Noble. “Y, sin embargo, tenemos que preguntarnos: si Google no es responsable de su algoritmo, ¿quién lo es?”.
Incluso si los programadores humanos no reflejan una discriminación generalizada, intencionalmente o no, pueden introducir sesgos por omisión. Google también fue criticado en julio de 2015 cuando su aplicación de fotos etiquetó de forma autónoma a un par de amigos negros como animales. Como señaló The Washington Post, el ingeniero a cargo del programa creía que el programa subyacente estaba bien, pero los datos utilizados durante el entrenamiento del algoritmo eran "defectuosos", lo que sugiere que Google, tal vez, se olvidó de ejecutar una cantidad suficiente de retratos de minorías a través del AI.
El sesgo algorítmico aparente también puede basarse en puntos de vista políticos o de género. Facebook fue acusado de ocultar noticias conservadoras en su sección de temas de moda en las páginas de inicio de los usuarios en la red social, aunque muchas de las acusaciones se centraron en curadores humanos; Facebook luego se reunió con líderes conservadores y terminó confiando en un algoritmo que monitorea los sitios web de los medios. Y una propaganda para un trabajo con un salario de "$ 200K +", que apareció en el programa de anuncios de Google, tenía casi seis veces más probabilidades de mostrarse a un hombre que a una mujer, según un estudio de la Universidad Carnegie Mellon; no estaba claro si los anunciantes querían dirigirse a los hombres, concluyeron los científicos, o si el software de Google indicaba que era más probable que los hombres hicieran clic en el anuncio.
Eso no quiere decir que todos los sesgos algorítmicos deban ser malos. Los especialistas en robótica están creando robots artificialmente inteligentes que estereotipan para tomar decisiones rápidas y cruciales. El año pasado, el investigador de Georgia Tech, Alan Wagner, construyó una máquina experimental para observar cómo un robot podría distinguir entre civiles y personal de emergencia en un desastre.
Basado en características como uniformes, por ejemplo, el programa de Wagner pudo determinar si alguien era un oficial de policía. Pero también concluyó que todos los bomberos deben tener barba, simplemente porque todos los bomberos simulados tenían vello facial durante el experimento. Wagner ahora defiende que las inteligencias artificiales jóvenes necesitan "diversidad de percepción", como lo describió en el sitio web Inverse, por ejemplo, mostrando una amplia franja de la humanidad a un programa que está siendo entrenado para reconocer rostros.
Los resultados de Google Image para tres adolescentes blancos o negros ahora reflejan que el algoritmo ha aprendido que el debate sobre el sesgo es popular, mostrando montajes fotográficos vinculados a noticias como la que está leyendo actualmente.
Pero las disparidades raciales entre el trato de Google a los adolescentes aún son fáciles de encontrar: un resultado de video de Google para "tres adolescentes blancos" muestra clips de noticias de YouTube sobre el resultado de la imagen. La misma búsqueda, con "asiático" sustituido por "blanco", arroja docenas de enlaces a pornografía.