Registro de citas para el Incidente 13

Description: Google's Perspective API, which assigns a toxicity score to online text, seems to award higher toxicity scores to content involving non-white, male, Christian, heterosexual phrases.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Google, perjudicó a Women y Minority Groups.

Estadísticas de incidentes

ID
13
Cantidad de informes
9
Fecha del Incidente
2017-02-27
Editores
Sean McGregor

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Full Description

Google's Perspective API, which assigns a toxicity score to online text, has been shown to award higher toxicity scores to content involving non-white, male, Christian, heterosexual phrases. the scores lay on the spectrum between very healthy (low %) to very toxic (high %). The phrase "I am a man" received a score of 20% while "I am a gay black woman" received 87%. The bias exists within subcategories as well: "I am a man who is deaf" received 70%, "I am a person who is deaf" received 74%, and "I am a woman who is deaf" received 77%. The API can also be circumvented by modifying text: "They are liberal idiots who are uneducated" received 90% while "they are liberal idiots who are un.educated" received 15%.

Short Description

Google's Perspective API, which assigns a toxicity score to online text, seems to award higher toxicity scores to content involving non-white, male, Christian, heterosexual phrases.

Severity

Minor

Harm Distribution Basis

Race, Religion, National origin or immigrant status, Sex, Sexual orientation or gender identity, Disability, Ideology

Harm Type

Psychological harm, Harm to social or political systems

AI System Description

Google Perspective is an API designed using machine learning tactics to assign "toxicity" scores to online text with the oiginal intent of assisting in identifying hate speech and "trolling" on internet comments. Perspective is trained to recognize a variety of attributes (e.g. whether a comment is toxic, threatening, insulting, off-topic, etc.) using millions of examples gathered from several online platforms and reviewed by human annotators.

System Developer

Google

Sector of Deployment

Information and communication

Relevant AI functions

Perception, Cognition, Action

AI Techniques

open-source, machine learning

AI Applications

Natural language processing, content ranking

Location

Global

Named Entities

Google, Google Cloud, Perspective API

Technology Purveyor

Google

Beginning Date

2017-01-01T00:00:00.000Z

Ending Date

2017-01-01T00:00:00.000Z

Near Miss

Harm caused

Intent

Accident

Lives Lost

No

Data Inputs

Online comments

Clasificaciones de la Taxonomía GMF

Detalles de la Taxonomía

Known AI Goal

Hate Speech Detection

Known AI Technology

Character NGrams

Potential AI Technology

Distributional Learning

Known AI Technical Failure

Context Misidentification, Generalization Failure, Lack of Adversarial Robustness

Potential AI Technical Failure

Limited Dataset, Misaligned Objective, Underfitting, Distributional Bias, Data or Labelling Noise

La IA que combate el odio de Alphabet aún no entiende el odio
qz.com · 2017

Ayer, Google y su empresa hermana, Alphabet, Jigsaw, anunciaron Perspective, una herramienta que utiliza el aprendizaje automático para vigilar Internet contra el discurso de odio. La compañía anunció la tecnología como un arma incipiente p…

Los investigadores de seguridad muestran que la plataforma de IA anti-troll de Google es fácil de engañar
techxplore.com · 2017

En los ejemplos a continuación sobre temas candentes del cambio climático, el Brexit y las recientes elecciones estadounidenses, que se tomaron directamente del sitio web de Perspective API, el equipo de UW simplemente escribió mal o agregó…

infowars.com · 2017

La herramienta de IA de Google que se utiliza para marcar los "comentarios ofensivos" tiene un sesgo aparentemente incorporado contra los puntos de vista conservadores y libertarios.

Perspective API, un "modelo de aprendizaje automático" de…

tabletmag.com · 2017

¿No odias lo viles que son algunas personas en Internet? ¿Qué tan fácil se ha vuelto decir cosas horribles e hirientes sobre otros grupos e individuos? ¿Cómo se está utilizando esta herramienta que se suponía que debía difundir el conocimie…

blog.conceptnet.io · 2017

El mes pasado, escribí una publicación de blog advirtiendo sobre cómo, si sigues las tendencias populares en PNL, puedes crear accidentalmente un clasificador bastante racista. Para demostrar esto, incluí el código muy simple, como un "tuto…

La IA antiacoso de Google confunde la civilidad con la decencia
motherboard.vice.com · 2017

A medida que la política en los EE. UU. y Europa se ha vuelto cada vez más divisiva, los escritores de artículos de opinión y los políticos han presionado por más "civismo" en nuestros debates, incluso en línea. En medio de este impulso, su…

El sistema de clasificación de comentarios de Google será un éxito con la derecha alternativa
engadget.com · 2017

La API subyacente utilizada para determinar la "toxicidad" califica frases como "Soy una mujer negra gay" con un 87 por ciento de toxicidad, y frases como "Soy un hombre" como la menos tóxica. La API, llamada Perspective, está hecha por Alp…

De la toxicidad en los comentarios en línea a la incivilidad en las noticias estadounidenses: proceder con precaución
arxiv.org · 2021

Resumen

La capacidad de cuantificar la falta de civismo en línea, en las noticias y en los debates del Congreso es de gran interés para los politólogos. Las herramientas computacionales para detectar la falta de civismo en línea para el ing…

La IA muestra sesgo e inflexibilidad en la detección de urbanidad, según un estudio
venturebeat.com · 2021

Según una encuesta del Pew Center de 2019, la mayoría de los encuestados creen que el tono y la naturaleza del debate político en los EE. UU. se han vuelto más negativos y menos respetuosos. Esta observación ha motivado a los científicos a …

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.