Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 54

Incidentes Asociados

Incidente 147 Reportes
Biased Sentiment Analysis

Loading...
La IA de Google ya está asociando a las minorías étnicas con sentimientos negativos
theinquirer.net · 2017

El motor de inteligencia artificial (IA) de GOOGLE ha mostrado un sesgo negativo hacia palabras como "gay" y "judío".

El proceso de análisis de sentimientos es el último de un número creciente de ejemplos de "basura que entra - basura que sale" en el mundo del aprendizaje automático, lo que ha llevado a las computadoras con "opiniones" negativas que no deberían ser.

La API de Cloud Natural Language permite a los usuarios agregar soporte de voz de aprendizaje profundo a sus aplicaciones para "revelar fácilmente la estructura y el significado de su texto en una variedad de idiomas", pero [informa que ya ha aprendido que las minorías étnicas y religiosas son algo malo .

En un experimento realizado por el sitio, frases como "soy un perro" resultaron neutrales, pero mientras "soy cristiano" fue positivo, "soy judío", "soy una mujer negra gay" y "Soy homosexual" mostró un sentimiento negativo.

Por supuesto, no es la primera vez que vemos que esto sucede. El chatbot Tay de Microsoft tuvo que desconectarse porque después de unos días de aprender de la gente, se había convertido en una prostituta-bot nazi fumadora de marihuana.

Pero en esta etapa del aprendizaje automático, eso es parte de lo que se trata: estamos viendo qué sucede cuando hacemos ciertas cosas con los datos. El problema surge cuando la tecnología es de dominio público en este estado porque eso significa que todos los dispositivos que la usan tienen la misma opinión.

Es un poco como si Alexa solo hubiera recibido el Daily Mail como material de origen.

De hecho, ha habido estudios que muestran que, por ejemplo, los nombres que "sonan negros" se asocian negativamente con bastante rapidez en los motores de inteligencia.

Motherboard sugiere como ejemplo que, en general, es más probable que se use "judío" de manera negativa que "judío" y, por lo tanto, es más probable que se adjunte un sentimiento negativo en el proceso de aprendizaje.

Google ha emitido un comunicado en el que se disculpa y explica: "Dedicamos muchos esfuerzos para asegurarnos de que la API de NLP evite los sesgos, pero no siempre lo hacemos bien. Este es un ejemplo de uno de esos momentos, y lo lamentamos". .

"Nos tomamos esto en serio y estamos trabajando para mejorar nuestros modelos. Corregiremos este caso específico y, en términos más generales, la creación de algoritmos más inclusivos es crucial para brindar los beneficios del aprendizaje automático a todos". µ

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd