Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 51

Incidentes Asociados

Incidente 147 Reportes
Biased Sentiment Analysis

Loading...
Google lamenta que su analizador de sentimientos sea sesgado
motherboard.vice.com · 2017

Imagen: Shutterstock

Google se equivocó y ahora dice que lo siente.

El miércoles, Motherboard publicó una historia escrita por Andrew Thompson sobre los prejuicios contra las minorías étnicas y religiosas codificadas en una de las interfaces de programas de aplicaciones (API) de aprendizaje automático de Google, llamada Cloud Natural Language API.

Parte de la API analiza los textos y luego determina si tienen un sentimiento positivo o negativo, en una escala de -1 a 1. Se descubrió que la IA etiqueta las oraciones sobre minorías étnicas y religiosas como negativas, lo que indica que está inherentemente sesgada. Calificó tanto a ser judío como a ser homosexual como algo negativo, por ejemplo.

Google ahora se ha comprometido a solucionar el problema. En respuesta a la historia de Motherboard, un portavoz de la empresa dijo que estaba trabajando para mejorar la API y eliminar sus sesgos.

"Dedicamos muchos esfuerzos para asegurarnos de que la API de NLP [Procesamiento del lenguaje natural] evite el sesgo, pero no siempre lo hacemos bien. Este es un ejemplo de uno de esos momentos, y lo lamentamos. Nos lo tomamos en serio. y estamos trabajando para mejorar nuestros modelos", dijo un portavoz de Google en un correo electrónico. "Corregiremos este caso específico y, en términos más generales, la creación de algoritmos más inclusivos es crucial para brindar los beneficios del aprendizaje automático a todos".

Los sistemas de inteligencia artificial se entrenan mediante el procesamiento de grandes cantidades de datos, que a menudo incluyen libros, reseñas de películas y artículos de noticias. La IA de Google probablemente aprendió a estar sesgada contra ciertos grupos porque recibió datos sesgados. Problemas como estos están en el centro de la investigación de inteligencia artificial y aprendizaje automático, y aquellos que critican tales tecnologías dicen que deben solucionarse para garantizar que la tecnología funcione para todos.

Este no es el primer ejemplo de sesgo de IA que se descubre, y probablemente no será el último. Los investigadores aún no se ponen de acuerdo sobre la mejor manera de evitar que los sistemas de inteligencia artificial reflejen los sesgos que se encuentran en la sociedad. Pero debemos seguir exponiendo instancias en las que las IA han aprendido a encarnar los mismos prejuicios que los humanos.

No sorprende que Google quiera corregir este sesgo en particular, pero vale la pena señalar que la empresa se disculpó y apuntó hacia el objetivo de construir una inteligencia artificial más inclusiva. Ahora depende de la empresa y de todos los demás que trabajan en la tecnología desarrollar una forma viable de hacerlo.

¿Tienes un consejo? Puede ponerse en contacto con este reportero de forma segura en Signal al +1 201-316-6981, o por correo electrónico a louise.matsakis@vice.com

Recibe seis de nuestras historias favoritas de Motherboard todos los días suscribiéndote a nuestro boletín.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd