Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 53

Incidentes Asociados

Incidente 147 Reportes
Biased Sentiment Analysis

Loading...
La API de Google Sentiment Analysis da una salida sesgada
techleer.com · 2017

Google desarrolló su API Cloud Natural Language para permitir a los desarrolladores trabajar con un analizador de lenguaje para revelar el significado real del texto. El sistema decidió si el texto se decía con un sentimiento positivo o negativo. Según datos recientes publicados por Google, su API considera una palabra como "homosexual" como negativa.

Todos sabemos que la API juzga en función de la información que se le proporciona, pero lo que podría sorprenderte es que la API también puede estar sesgada al igual que los humanos. Los usuarios tienen que ingresar oraciones completas para obtener un análisis predictivo de cada palabra, así como de la declaración en su conjunto. En el resultado, se puede ver que la API mide ciertas palabras para tener un sentimiento negativo o positivo. Estos sistemas de IA se entrenan usando texto, libros.

Según una revelación reciente, la API de Cloud Natural Language tiende a sesgar su análisis hacia la atribución negativa de ciertos términos descriptivos. Es similar a cómo los humanos se comportan en el mundo. Todos comenzamos nuestra vida con buenos pensamientos y recuerdos que comienzan a contaminarse con la negatividad del mundo.

Google también confirmó que su API en la nube está dando resultados sesgados. Google emitió un comunicado pidiendo disculpas a los desarrolladores por la falla en el software.

Google dijo que “dedicamos muchos esfuerzos para asegurarnos de que la API NLP evite el sesgo, pero no siempre lo hacemos bien. Este es un ejemplo de uno de esos tiempos, y lo sentimos. Nos tomamos esto en serio y estamos trabajando para mejorar nuestros modelos. Corregiremos este caso específico y, en términos más generales, crear algoritmos más inclusivos es crucial para brindar los beneficios del aprendizaje automático a todos”.

Este incidente es similar a lo que sucedió con el chatbot Tay de IA de Microsoft. Microsoft tuvo que cerrar Tay en marzo de 2016 después de que los usuarios de Twitter le enseñaron que era un teórico de la conspiración extremadamente racista y sexista.

Google tiene que encontrar alguna solución para deshacerse de la salida sesgada; de lo contrario, es posible que tenga que retirar su API.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd