Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1652

Incidentes Asociados

Incidente 1632 Reportes
Facebook’s Hate Speech Detection Algorithms Allegedly Disproportionately Failed to Remove Racist Content towards Minority Groups

Loading...
Cómo oculta Facebook lo terrible que es con el discurso de odio
wired.com · 2021

En público, Facebook parece afirmar que elimina más del 90 por ciento del discurso de odio en su plataforma, pero en comunicaciones internas privadas, la empresa dice que la cifra es solo un atroz 3 a 5 por ciento. Facebook quiere hacernos creer que casi todo el discurso de odio se elimina, cuando en realidad casi todo permanece en la plataforma.

Esta hipocresía obscena se reveló en medio de numerosas quejas, basadas en miles de páginas de documentos internos filtrados, que la empleada de Facebook convertida en denunciante Frances Haugen y su equipo legal presentaron ante la SEC a principios de este mes. Si bien la atención pública sobre estas filtraciones se ha centrado en el impacto de Instagram en la salud de los adolescentes (que difícilmente es el arma humeante que se ha promocionado) y en el papel del algoritmo News Feed en la amplificación de la información errónea (difícilmente una revelación), el fracaso total de Facebook para limitar el discurso de odio y el simple truco engañoso en el que se confía constantemente para ocultar esta falla es impactante. Expone cuánto depende Facebook de la IA para la moderación de contenido, cuán ineficaz es esa IA y la necesidad de obligar a Facebook a que se sincere.

En su testimonio ante el Senado de los EE. UU. en octubre de 2020, Mark Zuckerberg señaló los informes de transparencia de la compañía, que según dijo muestran que “estamos identificando de manera proactiva, creo que es aproximadamente el 94 por ciento del discurso de odio que terminamos eliminando”. En testimonio ante la Cámara unos meses después, Zuckerberg respondió de manera similar a las preguntas sobre el discurso de odio citando un informe de transparencia: “También eliminamos alrededor de 12 millones de piezas de contenido en Grupos por violar nuestras políticas sobre discurso de odio, el 87 por ciento de los cuales encontramos proactivamente.” En casi todos los informes de transparencia trimestrales, Facebook proclama porcentajes de moderación del discurso de odio en los años 80 y 90 como estos. Sin embargo, un documento filtrado de marzo de 2021 dice: “Podemos actuar tan solo entre el 3 y el 5 % del odio… en Facebook”.

¿Facebook realmente fue atrapado en una mentira atroz? Si y no. Técnicamente, ambos números son correctos, simplemente miden cosas diferentes. La medida que realmente importa es la que Facebook ha estado ocultando. La medida que Facebook ha estado informando públicamente es irrelevante. Es un poco como si cada vez que un oficial de policía te detuviera y te preguntara qué tan rápido ibas, siempre respondiste ignorando la pregunta y, en cambio, te jactaste del consumo de gasolina de tu auto.

Hay dos formas de marcar el discurso de odio para su revisión y posible eliminación. Los usuarios pueden informarlo manualmente o los algoritmos de IA pueden intentar detectarlo automáticamente. La detección algorítmica es importante no solo porque es más eficiente, sino también porque se puede realizar de manera proactiva, antes de que los usuarios señalen el discurso de odio.

Es un poco como si cada vez que un oficial de policía te detuviera y te preguntara qué tan rápido ibas, siempre respondiste ignorando la pregunta y, en cambio, te jactaste del consumo de gasolina de tu auto.

El número del 94 por ciento que Facebook ha promocionado públicamente es la "tasa proactiva", la cantidad de elementos de incitación al odio eliminados que la IA de Facebook detectó de manera proactiva, dividido por la cantidad total de elementos de incitación al odio eliminados. Facebook probablemente quiere que pienses que este número transmite cuánto discurso de odio se elimina antes de que tenga la oportunidad de causar daño, pero todo lo que realmente mide es qué papel desempeñan los algoritmos en la detección del discurso de odio en la plataforma.

Lo que le importa a la sociedad es la cantidad de discurso de odio que no se elimina de la plataforma. La mejor manera de capturar esto es el número de eliminaciones de discursos de odio dividido por el número total de instancias de discursos de odio. Esta "tasa de eliminación" mide cuánto discurso de odio en Facebook se elimina realmente, y es el número que Facebook trató de mantener en secreto.

Gracias a Haugen, finalmente conocemos la tasa de derribos, y es pésimo. Según documentos internos, más del 95 por ciento del discurso de odio compartido en Facebook permanece en Facebook. Zuckerberg se jactó ante el Congreso de que Facebook eliminó 12 millones de discursos de odio en Grupos, pero según la estimación filtrada, ahora sabemos que probablemente quedaron alrededor de 250 millones de discursos de odio. Esto es asombroso y muestra el poco progreso que se ha logrado desde los primeros días de los foros de Internet no regulados, a pesar de las grandes inversiones que Facebook ha realizado en la moderación de contenido de IA a lo largo de los años.

Desafortunadamente, la queja que el equipo legal de Haugen presentó ante la SEC enturbió el problema al afirmar de manera destacada en negrita: "Los registros de Facebook confirman que las declaraciones de Facebook eran falsas". Esto en sí mismo es falso: Facebook técnicamente no mintió ni "declaró erróneamente" la verdad, como alega la denuncia, pero ha engañado repetidamente e incuestionablemente al público sobre el pozo negro de discurso de odio que es su plataforma y lo terrible que es la empresa para controlar en.

No se sorprenda al ver al equipo de defensa de Facebook saltar sobre el descuido del equipo de Haugen. Pero no se deje engañar por ningún esfuerzo por desacreditar los hallazgos del denunciante. La conclusión es que Facebook ha sabido durante años que está fallando miserablemente en el control del discurso de odio en su plataforma, y para ocultar esto a los inversionistas y al público, Facebook ha vendido la tasa proactiva sin sentido para distraernos de la tasa de eliminación significativa y celosamente guardada. .

Otra medida de la que a veces se jacta Facebook es la "prevalencia" del discurso de odio. Cuando se le pidió un comentario sobre este artículo, un portavoz de Facebook escribió en un comunicado enviado por correo electrónico que "la prevalencia del discurso de odio en Facebook es ahora del 0,05 por ciento del contenido visto y se ha reducido en casi un 50 por ciento en los últimos tres trimestres". La prevalencia da una idea de cuánto discurso de odio hay en la plataforma, pero aún pinta un retrato engañosamente optimista. La distribución del discurso de odio es tan desigual que un porcentaje contundente como este oculta la alta prevalencia del discurso de odio que ocurre en comunidades específicas y que experimentan muchos usuarios individuales. Además, ver contenido no odioso en Facebook no hace que el contenido odioso sea menos dañino; sin embargo, esto es exactamente lo que sugiere la confianza en la prevalencia.

A medida que la atención del público pasa de descubrir los males de las redes sociales a encontrar formas de abordarlos, aquí hay dos conclusiones importantes.

Primero, Zuckerberg ha repetido durante mucho tiempo la afirmación de que las mejoras en la IA serán la clave de la empresa para lidiar con el contenido dañino. Lo dijo a raíz de las elecciones de 2016, después de que las campañas rusas de desinformación se descontrolaran en la plataforma. Lo dijo en un video de Facebook Live de 2017, mientras asaba carne en su patio trasero: “Especialmente con la IA, soy muy optimista. Las personas que son negativas y tratan de inventar estos escenarios del fin del mundo, simplemente, no lo entiendo”. Es revelador que el director ejecutivo de Facebook comparta más detalles granulares sobre cómo ahuma la pechuga de una vaca que él mismo descuartizó (a 225 grados durante ocho horas, invertida cada dos horas) que sobre el dominio de la IA de su empresa, pero aquí hay un escenario apocalíptico que puede entender : Es 2021, y la IA de Facebook todavía solo capta una pequeña fracción del discurso de odio de la plataforma.

Desafortunadamente, no existe una bala de plata cuando se trata de discurso de odio en línea. La moderación de contenido es un problema increíblemente desafiante, y debemos admitir que la IA está muy lejos de ser la panacea que con frecuencia se anuncia. Pero si hay un punto que Haugen y los denunciantes que la precedieron destacaron más que cualquier otra cosa, es que no podemos simplemente esperar honestidad de los gigantes tecnológicos, debemos encontrar formas de exigirlo legalmente. Esto nos lleva a la segunda conclusión:

Una regulación de transparencia simple pero útil sería exigir que todas las plataformas publiquen sus tasas de eliminación para las diferentes categorías de contenido dañino (como discurso de odio e información errónea). Seguramente se pueden jugar con las tasas de eliminación, pero esto sería un paso en la dirección correcta y evitaría el truco engañoso que Facebook ha estado usando durante años. De la misma manera que usted y yo necesitamos un puntaje crediticio para obtener un préstamo, Facebook y otras plataformas de redes sociales deberían necesitar un puntaje crediticio de moderación de contenido, basado en tasas de eliminación, no en tasas proactivas u otras medidas sin sentido, para continuar haciendo negocios.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd