Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 169

Incidentes Asociados

Incidente 1927 Reportes
Sexist and Racist Google Adsense Advertisements

Loading...
Lucha contra el sesgo algorítmico y el pensamiento homogéneo en IA
topbots.com · 2017

Cuando Timnit Gebru asistió a una prestigiosa conferencia de investigación de IA el año pasado, contó con 6 personas negras en la audiencia de un estimado de 8500. Y solo una mujer negra: ella misma.

Como candidato a doctorado en la Universidad de Stanford que ha publicado una serie de artículos notables en el campo de la inteligencia artificial, Gebru considera que la falta de diversidad en la industria es "extremadamente alarmante" y efectivamente una "emergencia internacional". “La gente reconoce abiertamente que la diversidad es una prioridad”, explica, “pero no tratan el problema como urgente y lo abordan activamente”.

Gebru no es ajeno a la adversidad. Originaria de Etiopía, llegó a los Estados Unidos a la edad de 16 años y de inmediato se enfrentó a los prejuicios raciales. Los maestros esperaban que reprobara los exámenes porque era extranjera. Un consejero casi la convenció de que no podía ser aceptada en ninguna universidad, ni siquiera en la escuela de seguridad. A través de la perseverancia y la resiliencia, Gebru desacreditó estas predicciones inexactas y prosperó en su nuevo país, consiguiendo un empleo como ingeniera para Apple y títulos técnicos avanzados de Stanford.

Los investigadores de IA se enorgullecen de ser racionales y basados en datos, pero pueden estar ciegos ante cuestiones como el sesgo racial o de género que no siempre son fáciles de capturar con números. El pensamiento homogéneo en la industria de la IA tiene implicaciones mucho más allá de la composición racial de los programas de doctorado y los asistentes a conferencias de IA. Gebru señala que la IA impulsa los sistemas de alto riesgo utilizados para identificar terroristas o predecir la reincidencia criminal. Los sesgos y los descuidos incluso se filtran en la tecnología cotidiana en la que confiamos.

Estos desafíos continuos no sorprenden a Latanya Sweeney, la primera mujer negra en recibir un doctorado en informática del MIT. Actualmente profesor en Harvard y director de su Data Privacy Lab, la investigación de Sweeney examina soluciones tecnológicas para desafíos sociales, políticos y de gobierno. Una de sus contribuciones importantes ilumina la discriminación en la publicidad en línea, donde descubrió que las búsquedas en Internet de nombres "racialmente asociados" con la comunidad negra tienen un 25% más de probabilidades de generar anuncios patrocinados que sugieren que la persona tiene antecedentes penales, independientemente de la verdad. Cuando Sweeney busca su propio nombre en Google, encuentra anuncios como: “Latanya Sweeney, ¿arrestada? 1) Ingrese nombre y estado 2) Acceda a antecedentes completos. Comprueba al instante. www.instantcheckmate.com.”

Recientemente, Sweeney, quien también es editor en jefe de Technology Science, informó que los servicios de preparación para el examen SAT cobran a los códigos postales con altas proporciones de residentes asiáticos casi el doble del precio promedio, independientemente de sus ingresos reales. “En los Estados Unidos, la discriminación de precios es ilegal si se basa en raza, religión, nacionalidad o género”, afirma su informe, pero la aplicación de la ley es un desafío en el comercio en línea, donde los precios diferenciales están envueltos en algoritmos opacos.

Los sesgos de los creadores se filtran a sus creaciones. Debido al impacto exponencial de la tecnología, priorizar la diversidad en la IA es “incluso más importante que en otros campos”, advierte Gebru. Para fomentar la creación de redes y la visibilidad, Gebru cofundó la comunidad social Black In AI. La organización está en camino de aumentar drásticamente la participación de investigadores afroamericanos en importantes conferencias de IA. También regresó a Etiopía para co-enseñar un curso de programación llamado AddisCoder a una amplia gama de niños. La mitad de los estudiantes eran mujeres y todos eran de escuelas públicas. Algunos de ellos ni siquiera sabían escribir cuando comenzaron la clase.

Sin embargo, la transformación fue extraordinaria. Uno de los estudiantes provenía de una familia con obstáculos financieros que lo obligaron a dejar la escuela, pero logró ingresar a Harvard, MIT y Columbia después de completar el programa AddisCoder.

A pesar de los programas de inclusión y los grupos de defensa, quedan muchos desafíos para la diversidad. El primero es la naturaleza apolítica de la industria de la IA, que a menudo prefiere las torres de marfil de la academia. “Einstein era un activista y antisegregacionista”, recuerda Gebru. “Él enseñó en escuelas negras y comparó la discriminación racial en los EE. UU. con lo que estaba sucediendo en la Alemania nazi. Pero la mayoría de los investigadores de IA de hoy desprecian a los políticos y no quieren involucrarse”. Dado que la IA se usa cada vez más para influir en los resultados de las elecciones e identificar a terroristas y delincuentes, advierte que "los investigadores de IA no deben guardar silencio sobre las repercusiones de su trabajo".

El actual sentimiento antiinmigración tampoco ayuda. Rana el Kaliouby, una emprendedora egipcio-musulmana, completó un doctorado en la Universidad de Cambridge y un trabajo de posdoctorado en el MIT. Comercializó su investigación sobre inteligencia artificial emocional en la empresa Affectiva, que ha recaudado más de 30 millones de dólares en financiación. “Me desperté con las noticias sobre la [orden] de inmigración [de Trump] y tenía una sensación de vacío en el estómago”, comparte en una conmovedora historia para Inc, y agrega que “este crisol de experiencias, intereses, educación, antecedentes y cultura

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd