Incidentes Asociados

Imagen: Shutterstock
Google se equivocó y ahora dice que lo siente.
El miércoles, Motherboard publicó una historia escrita por Andrew Thompson sobre los prejuicios contra las minorías étnicas y religiosas codificadas en una de las interfaces de programas de aplicaciones (API) de aprendizaje automático de Google, llamada Cloud Natural Language API.
Parte de la API analiza los textos y luego determina si tienen un sentimiento positivo o negativo, en una escala de -1 a 1. Se descubrió que la IA etiqueta las oraciones sobre minorías étnicas y religiosas como negativas, lo que indica que está inherentemente sesgada. Calificó tanto a ser judío como a ser homosexual como algo negativo, por ejemplo.
Google ahora se ha comprometido a solucionar el problema. En respuesta a la historia de Motherboard, un portavoz de la empresa dijo que estaba trabajando para mejorar la API y eliminar sus sesgos.
"Dedicamos muchos esfuerzos para asegurarnos de que la API de NLP [Procesamiento del lenguaje natural] evite el sesgo, pero no siempre lo hacemos bien. Este es un ejemplo de uno de esos momentos, y lo lamentamos. Nos lo tomamos en serio. y estamos trabajando para mejorar nuestros modelos", dijo un portavoz de Google en un correo electrónico. "Corregiremos este caso específico y, en términos más generales, la creación de algoritmos más inclusivos es crucial para brindar los beneficios del aprendizaje automático a todos".
Los sistemas de inteligencia artificial se entrenan mediante el procesamiento de grandes cantidades de datos, que a menudo incluyen libros, reseñas de películas y artículos de noticias. La IA de Google probablemente aprendió a estar sesgada contra ciertos grupos porque recibió datos sesgados. Problemas como estos están en el centro de la investigación de inteligencia artificial y aprendizaje automático, y aquellos que critican tales tecnologías dicen que deben solucionarse para garantizar que la tecnología funcione para todos.
Este no es el primer ejemplo de sesgo de IA que se descubre, y probablemente no será el último. Los investigadores aún no se ponen de acuerdo sobre la mejor manera de evitar que los sistemas de inteligencia artificial reflejen los sesgos que se encuentran en la sociedad. Pero debemos seguir exponiendo instancias en las que las IA han aprendido a encarnar los mismos prejuicios que los humanos.
No sorprende que Google quiera corregir este sesgo en particular, pero vale la pena señalar que la empresa se disculpó y apuntó hacia el objetivo de construir una inteligencia artificial más inclusiva. Ahora depende de la empresa y de todos los demás que trabajan en la tecnología desarrollar una forma viable de hacerlo.
¿Tienes un consejo? Puede ponerse en contacto con este reportero de forma segura en Signal al +1 201-316-6981, o por correo electrónico a louise.matsakis@vice.com
Recibe seis de nuestras historias favoritas de Motherboard todos los días suscribiéndote a nuestro boletín.