Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1583

Incidentes Asociados

Incidente 1775 Reportes
Google’s Assistive Writing Feature Provided Allegedly Unnecessary and Clumsy Suggestions

Loading...
Google Docs criticado por sugerencias de lenguaje inclusivo 'despertado'
news.sky.com · 2022

Google ha sido criticado por una función de "lenguaje inclusivo" que recomendará sustituciones de palabras para las personas que escriben en Google Docs.

La herramienta ofrecerá orientación a las personas que escriben de una manera que "puede no ser inclusiva para todos los lectores" de manera similar a los sistemas de revisión ortográfica y gramatical.

Aunque las sugerencias son solo sugerencias, no se imponen a los escritores y la herramienta puede desactivarse, los críticos lo han descrito como "control del habla" y "profundamente torpe, espeluznante e incorrecto".

La nueva función se denomina oficialmente escritura asistida y estará activada de forma predeterminada para los usuarios empresariales, los clientes comerciales que deseen impulsar estilos de escritura particulares entre su personal.

El lenguaje que favorece el sistema refleja décadas de campañas a favor de términos neutros en cuanto al género ("tripulados" en lugar de "tripulados") y contra frases que reflejan prejuicios raciales ("lista de rechazo" en lugar de "lista negra"), así como preocupaciones más modernas sobre el impacto de nuestro vocabulario en cómo identificamos a las personas.

Pero a pesar de los enormes avances en la forma en que las computadoras entienden el lenguaje natural, la tecnología aún está en pañales.

Entre las palabras que el sistema ha marcado en las pruebas se encuentran "humanidad", "ama de casa", "propietario" e incluso una "placa base" de computadora, que puede no ofender.

Google afirma: "Se marcará el lenguaje potencialmente discriminatorio o inapropiado, junto con sugerencias sobre cómo hacer que su escritura sea más inclusiva y apropiada para su audiencia".

La herramienta recuerda al infame y molesto asistente Clippy de Microsoft, que interrumpía los estilos de prosa de los propios escritores con sugerencias a menudo no deseadas.

Vice News probó la función al enviar varios discursos famosos y pasajes literarios, incluido el Sermón de la Montaña en la Biblia, y encontró que la mayoría recibió malas recomendaciones.

En particular, también encontró una entrevista con el exlíder del Ku Klux Klan, David Duke, en la que habló sobre la caza de personas negras, que no generó alertas ni advertencias de inclusión.

Silkie Carlo, directora de Big Brother Watch, que hace campaña por la protección de las libertades civiles, le dijo a The Telegraph: "Las advertencias de palabras nuevas de Google no son de asistencia, son profundamente intrusivas. Con la nueva herramienta de escritura de asistencia de Google, la compañía no está solo leyendo cada palabra que escribes pero diciéndote qué escribir.

"Esta vigilancia del discurso es profundamente torpe, espeluznante e incorrecta, y a menudo refuerza el sesgo. Tecnología invasiva como esta socava la privacidad, la libertad de expresión y cada vez más la libertad de pensamiento".

Lazar Radic, del Centro Internacional de Derecho y Economía, dijo al periódico: "Esto no solo es increíblemente engreído y condescendiente, sino que también puede servir para sofocar la individualidad, la autoexpresión, la experimentación y, desde una perspectiva puramente utilitaria, el progreso".

Google dijo: "La escritura asistida utiliza modelos de comprensión del lenguaje, que se basan en millones de frases y oraciones comunes para aprender automáticamente cómo se comunican las personas. Esto también significa que pueden reflejar algunos sesgos cognitivos humanos".

"Nuestra tecnología siempre está mejorando, y aún no tenemos (y es posible que nunca) tengamos una solución completa para identificar y mitigar todas las asociaciones de palabras no deseadas y sesgos".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd