Incidentes Asociados

Sin embargo, el sesgo también aparece por otras razones no relacionadas. Un estudio reciente sobre cómo un algoritmo entregó anuncios que promocionaban trabajos STEM mostró que era más probable que a los hombres se les mostrara el anuncio, no porque los hombres tuvieran más probabilidades de hacer clic en él, sino porque las mujeres son más caras para anunciarse. Dado que las empresas asignan un precio más alto a los anuncios dirigidos a mujeres (las mujeres generan entre el 70 % y el 80 % de todas las compras de los consumidores), el algoritmo optó por entregar anuncios más a hombres que a mujeres porque estaba diseñado para optimizar la entrega de anuncios y mantener los costos bajos.
Pero si un algoritmo solo refleja patrones en los datos que le damos, lo que les gusta a sus usuarios y los comportamientos económicos que ocurren en su mercado, ¿no es injusto culparlo por perpetuar nuestros peores atributos? Automáticamente esperamos que un algoritmo tome decisiones sin ningún tipo de discriminación cuando esto rara vez ocurre con los humanos. Incluso si un algoritmo está sesgado, puede ser una mejora sobre el statu quo actual.
Para beneficiarse plenamente del uso de la IA, es importante investigar qué sucedería si permitiéramos que la IA tome decisiones sin intervención humana. Un estudio de 2018 exploró este escenario con decisiones de fianza utilizando un algoritmo entrenado en datos criminales históricos para predecir la probabilidad de que los delincuentes reincidan. En una proyección, los autores pudieron reducir las tasas de criminalidad en un 25 % al mismo tiempo que reducían los casos de discriminación en los reclusos.
Sin embargo, las ganancias destacadas en esta investigación solo ocurrirían si el algoritmo realmente tomara todas las decisiones. Es poco probable que esto suceda en el mundo real, ya que los jueces probablemente preferirían elegir si seguir o no las recomendaciones del algoritmo. Incluso si un algoritmo está bien diseñado, se vuelve redundante si las personas deciden no confiar en él.
Muchos de nosotros ya confiamos en algoritmos para muchas de nuestras decisiones diarias, desde qué ver en Netflix o comprar en Amazon. Pero la investigación muestra que las personas pierden la confianza en los algoritmos más rápido que los humanos cuando ven que cometen un error, incluso cuando el algoritmo funciona mejor en general.
Por ejemplo, si su GPS sugiere que use una ruta alternativa para evitar el tráfico que termina demorando más de lo previsto, es probable que deje de confiar en su GPS en el futuro. Pero si tomar la ruta alternativa fue su decisión, es poco probable que deje de confiar en su propio juicio. Un estudio de seguimiento sobre cómo superar la aversión a los algoritmos incluso mostró que era más probable que las personas usaran un algoritmo y aceptaran sus errores si se les daba la oportunidad de modificar el algoritmo ellos mismos, incluso si eso significaba hacer que funcionara de manera imperfecta.
Si bien los humanos pueden perder rápidamente la confianza en los algoritmos defectuosos, muchos de nosotros tendemos a confiar más en las máquinas si tienen características humanas. De acuerdo con la investigación sobre autos sin conductor, era más probable que los humanos confiaran en el auto y creían que funcionaría mejor si el sistema aumentado del vehículo tuviera un nombre, un género específico y una voz que sonara humana. Sin embargo, si las máquinas se vuelven muy parecidas a los humanos, pero no del todo, las personas a menudo las encuentran espeluznantes, lo que podría afectar su confianza en ellas.
Aunque no apreciamos necesariamente la imagen que los algoritmos pueden reflejar de nuestra sociedad, parece que todavía estamos ansiosos por vivir con ellos y hacer que se vean y actúen como nosotros. Y si ese es el caso, seguramente los algoritmos también pueden cometer errores.
Maude Lavanchy es investigadora asociada en IMD.
Este artículo fue publicado por primera vez por The Conversation.