Registro de citas para el Incidente 14

Description: Google Cloud's Natural Language API provided racist, homophobic, amd antisemitic sentiment analyses.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Google, perjudicó a Women y Minority Groups.

Estadísticas de incidentes

ID
14
Cantidad de informes
7
Fecha del Incidente
2017-10-26
Editores
Sean McGregor

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Full Description

Google's Cloud Natural Language API returns "negative" sentiment analysis on phrases such as "I am homosexual" "I am Jewish" or "I am black". The API uses Natural Language Processing (NLP) to analyze text and produce a score from -1.0 to 1.0 with -1.0 being "very negative" and 1.0 being "very positive".

Short Description

Google Cloud's Natural Language API provided racist, homophobic, amd antisemitic sentiment analyses.

Severity

Negligible

Harm Distribution Basis

Race, Religion, Sexual orientation or gender identity, Ideology

Harm Type

Harm to social or political systems

AI System Description

Google Cloud's Natural Language API that analyzes input text and outputs a "sentiment analysis" score from -1.0 (very negative) to 1.0 (very positive)

System Developer

Google

Sector of Deployment

Arts, entertainment and recreation

Relevant AI functions

Cognition

AI Techniques

Google Cloud Natural Language Processing API

AI Applications

Natural language processing

Location

Global

Named Entities

Google, Google Cloud, Natural Language API

Technology Purveyor

Google

Beginning Date

10-2017T00:00:00.000Z

Ending Date

10-2017T00:00:00.000Z

Near Miss

Harm caused

Intent

Accident

Lives Lost

No

Data Inputs

input from open source internet

Google lamenta que su analizador de sentimientos sea sesgado
motherboard.vice.com · 2017

Imagen: Shutterstock

Google se equivocó y ahora dice que lo siente.

El miércoles, Motherboard publicó una historia escrita por Andrew Thompson sobre los prejuicios contra las minorías étnicas y religiosas codificadas en una de las interface…

La IA de Google ya está asociando a las minorías étnicas con sentimientos negativos
theinquirer.net · 2017

El motor de inteligencia artificial (IA) de GOOGLE ha mostrado un sesgo negativo hacia palabras como "gay" y "judío".

El proceso de análisis de sentimientos es el último de un número creciente de ejemplos de "basura que entra - basura que s…

El analizador de sentimientos de Google cree que ser gay es malo
motherboard.vice.com · 2017

Un portavoz de Google respondió a la solicitud de comentarios de Motherboard y emitió la siguiente declaración: "Dedicamos muchos esfuerzos para asegurarnos de que la API de NLP evite el sesgo, pero no siempre lo hacemos bien. Este es un ej…

La IA de Google tiene algunas opiniones seriamente equivocadas sobre la homosexualidad
mashable.com · 2017

El código de conducta de Google prohíbe explícitamente la discriminación basada en la orientación sexual, la raza, la religión y muchas otras categorías protegidas. Sin embargo, parece que nadie se molestó en pasar esa información a la inte…

La API de análisis de sentimientos de Google está tan sesgada como los humanos
engadget.com · 2017

La herramienta, que puede probar aquí, está diseñada para brindar a las empresas una vista previa de cómo se recibirá su idioma. Ingresar oraciones completas brinda un análisis predictivo de cada palabra, así como de la declaración en su co…

La IA de Google está calificando a judíos y homosexuales como malas personas, gracias a prejuicios humanos tóxicos
indiatimes.com · 2017

Muchos de los principales actores en la escena de la ciencia y la tecnología creen que tenemos mucho que temer de que la IA supere a la inteligencia humana, incluso cuando otros se ríen de esas afirmaciones. Pero una cosa en la que ambos la…

La API de Google Sentiment Analysis da una salida sesgada
techleer.com · 2017

Google desarrolló su API Cloud Natural Language para permitir a los desarrolladores trabajar con un analizador de lenguaje para revelar el significado real del texto. El sistema decidió si el texto se decía con un sentimiento positivo o neg…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents