Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 163: Los algoritmos de detección de discursos de odio de Facebook supuestamente no lograron eliminar de forma desproporcionada el contenido racista dirigido a grupos minoritarios.

Traducido por IA
Descripción:
Traducido por IA
Los investigadores de la empresa descubrieron que los algoritmos de detección de discursos de odio de Facebook no reportaban el contenido menos común pero más dañino que experimentaban con mayor frecuencia grupos minoritarios como los usuarios negros, musulmanes, LGBTQ y judíos.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Facebook, perjudicó a Facebook users of minority groups y Facebook users.

Estadísticas de incidentes

ID
163
Cantidad de informes
2
Fecha del Incidente
2021-11-21
Editores
Sean McGregor, Khoa Lam
Applied Taxonomies
GMF, MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.2. Exposure to toxic content

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

Cómo oculta Facebook lo terrible que es con el discurso de odio+1
Las prácticas de ceguera racial de Facebook en torno al discurso de odio se produjeron a expensas de los usuarios negros, según muestran nuevos documentos
Cómo oculta Facebook lo terrible que es con el discurso de odio

Cómo oculta Facebook lo terrible que es con el discurso de odio

wired.com

Las prácticas de ceguera racial de Facebook en torno al discurso de odio se produjeron a expensas de los usuarios negros, según muestran nuevos documentos

Las prácticas de ceguera racial de Facebook en torno al discurso de odio se produjeron a expensas de los usuarios negros, según muestran nuevos documentos

washingtonpost.com

Cómo oculta Facebook lo terrible que es con el discurso de odio
wired.com · 2021
Traducido por IA

En público, Facebook parece afirmar que elimina más del 90 por ciento del discurso de odio en su plataforma, pero en comunicaciones internas privadas, la empresa dice que la cifra es solo un atroz 3 a 5 por ciento. Facebook quiere hacernos …

Las prácticas de ceguera racial de Facebook en torno al discurso de odio se produjeron a expensas de los usuarios negros, según muestran nuevos documentos
washingtonpost.com · 2021
Traducido por IA

El año pasado, los investigadores de Facebook mostraron a los ejecutivos un ejemplo del tipo de discurso de odio que circula en la red social: una publicación real con una imagen de cuatro legisladoras demócratas conocidas colectivamente co…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Ever AI Reportedly Deceived Customers about FRT Use in App

Ever AI Reportedly Deceived Customers about FRT Use in App

Apr 2019 · 7 informes
Facebook "News Feed" Allegedly Boosted Misinformation and Violating Content Following Use of MSI Metric

Facebook "News Feed" Allegedly Boosted Misinformation and Violating Content Following Use of MSI Metric

Oct 2018 · 1 informe
Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Sep 2015 · 12 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Ever AI Reportedly Deceived Customers about FRT Use in App

Ever AI Reportedly Deceived Customers about FRT Use in App

Apr 2019 · 7 informes
Facebook "News Feed" Allegedly Boosted Misinformation and Violating Content Following Use of MSI Metric

Facebook "News Feed" Allegedly Boosted Misinformation and Violating Content Following Use of MSI Metric

Oct 2018 · 1 informe
Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Predictive Policing Program by Florida Sheriff’s Office Allegedly Violated Residents’ Rights and Targeted Children of Vulnerable Groups

Sep 2015 · 12 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178