Registro de citas para el Incidente 37

Description: Amazon shuts down internal AI recruiting tool that would down-rank female applicants.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Amazon, perjudicó a female applicants.

Estadísticas de incidentes

ID
37
Cantidad de informes
33
Fecha del Incidente
2016-08-10
Editores
Sean McGregor

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Full Description

In 2015, Amazon scrapped an internal recruiting algorithm developed by its Edinburgh office that would down-rank resumes when it included the word "women's", and two women's colleges. The algorithm ranked an applicant out of five stars, and it would give preference to resumes that contained what Reuters called "masculine language," or strong verbs like "executed" or "captured". These patterns occured because the engineered who made the algorithm trained it with past candidates' resumes submitted over the previous ten years, and the past candidates in the industry were male-dominated.

Short Description

Amazon shuts down internal AI recruiting tool that would down-rank female applicants.

Severity

Negligible

Harm Distribution Basis

Sex

Harm Type

Psychological harm, Financial harm

AI System Description

Resume screening tool developed by Amazon to scan resumes and raise strong job applicants for consideration

System Developer

Amazon

Sector of Deployment

Professional, scientific and technical activities

Relevant AI functions

Perception, Cognition

AI Techniques

Natural language processing

AI Applications

Natural language processing

Location

Edinburgh, Scotland

Named Entities

Amazon, Edinburgh

Technology Purveyor

Amazon

Beginning Date

2014-01-01

Ending Date

2015-01-01

Near Miss

Near miss

Intent

Accident

Lives Lost

No

Data Inputs

Resumes

¿Es la IA sexista?

¿Es la IA sexista?

wellesley.edu

Amazon descarta la herramienta de reclutamiento de 'IA sexista'
independent.co.uk · 2018

Amazon ha desechado una herramienta "sexista" que usaba inteligencia artificial para decidir a los mejores candidatos para contratar para puestos de trabajo.

Los miembros del equipo que trabajaba en el sistema dijeron que efectivamente se e…

Cómo Amazon inventó accidentalmente un algoritmo de contratación sexista
inc.com · 2018

Amazon descubrió un problema con el uso de inteligencia artificial para contratar: su IA estaba sesgada contra las mujeres.

La empresa con sede en Seattle desarrolló programas informáticos diseñados para filtrar cientos de currículos y saca…

Amazon elimina la herramienta de reclutamiento de 'IA sexista' que mostraba prejuicios contra las mujeres
telegraph.co.uk · 2018

Amazon eliminó una herramienta interna "sexista" que usaba inteligencia artificial para clasificar las solicitudes de empleo.

La IA fue creada por un equipo de la oficina de Amazon en Edimburgo en 2014 como una forma de clasificar automátic…

Amazon eliminó su sistema de reclutamiento de IA por sesgo contra las mujeres: informe
fortune.com · 2018

El aprendizaje automático, una de las técnicas centrales en el campo de la inteligencia artificial, implica enseñar a los sistemas automatizados a idear nuevas formas de hacer las cosas, alimentándolos con una gran cantidad de datos sobre e…

Amazon eliminó herramienta de 'IA sexista'
bbc.com · 2018

Derechos de autor de la imagen Getty Images Image caption El algoritmo repitió el sesgo hacia los hombres, reflejado en la industria de la tecnología.

Un algoritmo que el gigante en línea Amazon estaba probando como herramienta de reclutami…

Amazon creó una herramienta de inteligencia artificial para contratar personas, pero tuvo que cerrarla porque discriminaba a las mujeres
businessinsider.com.au · 2018

David Ryder/Getty Images El director ejecutivo de Amazon, Jeff Bezos.

Amazon intentó construir una herramienta de inteligencia artificial para ayudar con el reclutamiento, pero mostró un sesgo contra las mujeres, informa Reuters.

Según los …

Amazon creó accidentalmente una herramienta de reclutamiento 'sexista' y luego la cerró
aplus.com · 2018

La tecnología de aprendizaje automático se está volviendo cada vez más común en varias industrias, desde la vigilancia hasta el reclutamiento. Pero los informes han demostrado que muchos de estos sistemas tienen problemas de larga data con …

Amazon desecha la herramienta de contratación de IA 'sexista'
news.com.au · 2018

¿Qué es la inteligencia artificial (IA)? Observamos el progreso de la IA y la automatización en Australia en comparación con el resto del mundo y cómo la fuerza laboral australiana puede verse afectada por este movimiento.

¿El auge de la IA…

Amazon abandona la IA sexista
information-age.com · 2018

Amazon abandona la IA sexista

No es ninguna novedad saber que la IA puede ser algo así como un fanático.

Amazon descartó un algoritmo diseñado para convertirse en una herramienta de reclutamiento porque era demasiado sexista.

¿Escuchaste el…

Amazon elimina la herramienta secreta de reclutamiento de IA que mostraba prejuicios contra las mujeres
reuters.com · 2018

SAN FRANCISCO (Reuters) - Los especialistas en aprendizaje automático de Amazon.com Inc descubrieron un gran problema: a su nuevo motor de reclutamiento no le gustaban las mujeres.

El equipo había estado construyendo programas de computador…

El algoritmo de reclutamiento sexista de Amazon refleja un mayor sesgo de género
mashable.com · 2018

La IA puede tener tendencias sexistas. Pero, lo siento, el problema seguimos siendo los humanos.

Amazon eliminó recientemente un algoritmo de reclutamiento de empleados plagado de problemas, según un informe de Reuters. En última instancia,…

Amazon abandona la herramienta de reclutamiento de IA que 'aprendió a ser sexista'
afr.com · 2018

Londres | Amazon eliminó una herramienta interna "sexista" que usaba inteligencia artificial para clasificar las solicitudes de empleo.

El programa fue creado por un equipo de la oficina de Amazon en Edimburgo en 2014 como una forma de clas…

La herramienta de contratación de IA de Amazon discriminaba a las mujeres.
slate.com · 2018

Signo de Amazon, con amigo. Imágenes de David Ryder/Getty

Gracias a Amazon, el mundo tiene una nueva e ingeniosa historia de advertencia sobre los peligros de enseñar a las computadoras a tomar decisiones humanas.

Según un informe de Reuter…

Amazon cierra la herramienta de contratación de AI por ser sexista
globalcitizen.org · 2018

Por qué los ciudadanos globales deberían preocuparse

La discriminación de género en el lugar de trabajo impide que las mujeres desarrollen todo su potencial. La eliminación de la desigualdad de género en la fuerza laboral aumentaría en gran…

channels.theinnovationenterprise.com · 2018

Amazon decidió descartar un algoritmo de aprendizaje automático (ML) que estaba creando para ayudar a automatizar el proceso de reclutamiento porque el modelo seguía favoreciendo a los candidatos masculinos, reveló Reuters. La discriminació…

Amazon abandonó la herramienta de reclutamiento de IA que favorecía a los hombres para trabajos técnicos
theguardian.com · 2018

Los especialistas habían estado construyendo programas de computadora desde 2014 para revisar los currículos en un esfuerzo por automatizar el proceso de búsqueda.

Este artículo tiene más de 5 meses

Este artículo tiene más de 5 meses

Los es…

La herramienta de reclutamiento de IA de Amazon descartada por ser sexista
alphr.com · 2018

Amazon se ha visto obligado a desechar su sistema de contratación de IA después de que se descubriera que estaba sesgado contra las candidatas.

La IA fue desarrollada en 2014 por Amazon como una forma de filtrar a la mayoría de los candidat…

Amazon disparó su IA de lectura de currículums por sexismo
popularmechanics.com · 2018

Los algoritmos a menudo se presentan como superiores al juicio humano, eliminando las conjeturas de decisiones que van desde conducir hasta escribir un correo electrónico. Pero todavía están programados por humanos y entrenados con los dato…

Resulta que la herramienta de contratación de IA de Amazon discriminaba a las mujeres
siliconrepublic.com · 2018

Amazon tuvo que desechar su herramienta de contratación de inteligencia artificial porque era "sexista" y discriminaba a las mujeres solicitantes, según un informe de Reuters.

Las esperanzas de Amazon de crear la herramienta de contratación…

Amazon cierra la herramienta secreta de reclutamiento de inteligencia artificial que se enseñó a sí misma a ser sexista
interestingengineering.com · 2018

Las herramientas de recursos humanos de inteligencia artificial (IA) están de moda en este momento y son cada vez más populares. Los sistemas pueden acelerar, simplificar e incluso disminuir el costo del proceso de contratación convirtiéndo…

Amazon elimina la herramienta sexista de reclutamiento de IA
radionz.co.nz · 2018

Amazon eliminó su herramienta de contratación de inteligencia artificial después de que se descubrió que era sexista.

Foto: © 2014, Ken Wolter

Un equipo de especialistas familiarizados con el proyecto dijo a Reuters que habían estado constr…

Amazon entrenó una IA que lucha contra el sexismo y evalúa currículums con datos de contratación sexistas, por lo que el bot se volvió sexista
boingboing.net · 2018

Amazon entrenó una IA que lucha contra el sexismo y evalúa currículums con datos de contratación sexistas, por lo que el bot se volvió sexista

Algunas partes del aprendizaje automático son increíblemente esotéricas y difíciles de comprender…

Herramienta sexista de Amazon AI descartada
insights.tmpw.co.uk · 2018

Entonces, la IA puede ser el futuro en la contratación y el reclutamiento, pero parece que aún no está allí.

Si está basando su aprendizaje en la historia, que posiblemente haya tenido un sesgo hacia los hombres, entonces es probable que di…

¿Está la tecnología condenada a reflejar lo peor de todos nosotros?
tech.co · 2018

Los gurús de IA de Amazon descartaron un nuevo motor de reclutamiento de aprendizaje automático a principios de este mes. ¿Por qué? Resultó que la IA detrás de esto era sexista. ¿Qué significa esto a medida que corremos para producir una in…

mansworldindia.com · 2018

El gigante tecnológico enlató su sistema de reclutamiento experimental plagado de problemas, según Reuters.

Amazon, en 2014, puso en marcha el sistema de contratación con la esperanza de mecanizar todo el proceso de contratación. Usó inteli…

¿Es la IA sexista?
wellesley.edu · 2018

Amazon recientemente eliminó una herramienta de reclutamiento de inteligencia artificial (IA) experimental que se descubrió que estaba sesgada contra las mujeres. En este punto, espero que tenga algunas preguntas, como: ¿Qué es una herramie…

msn.com · 2018

Amazon eliminó una herramienta interna "sexista" que usaba inteligencia artificial para clasificar las solicitudes de empleo.

La IA fue creada por un equipo de la oficina de Amazon en Edimburgo en 2014 como una forma de clasificar automátic…

Por qué la sexista herramienta de reclutamiento de IA de Amazon es mejor que un humano.
imd.org · 2018

Sin embargo, el sesgo también aparece por otras razones no relacionadas. Un estudio reciente sobre cómo un algoritmo entregó anuncios que promocionaban trabajos STEM mostró que era más probable que a los hombres se les mostrara el anuncio, …

Resumen de 2018: 10 fallas de IA
medium.com · 2018

En diciembre pasado, Synced compiló su primer resumen de "Fallas de inteligencia artificial" de los errores de IA del año anterior. La IA ha logrado un progreso notable y muchos científicos sueñan con crear el algoritmo maestro propuesto po…

IA sexista: Amazon abandona la herramienta de reclutamiento que resultó ser anti-mujeres
rt.com · 2019

Se suponía que facilitaría la búsqueda de la persona adecuada para el trabajo. Sin embargo, la empresa abandonó una herramienta de inteligencia artificial desarrollada por Amazon para filtrar posibles contrataciones después de que los desar…

La ciudad de Nueva York propone regular los algoritmos utilizados en la contratación
arstechnica.com · 2021

En 1964, la [Ley de derechos civiles] (https://www.archives.gov/education/lessons/civil-rights-act) prohibió a los humanos que tomaban decisiones de contratación discriminar por sexo o raza. Ahora, el software a menudo contribuye a esas dec…

Los auditores están probando los algoritmos de contratación en busca de sesgo, pero no hay una solución fácil
technologyreview.com · 2021

Estoy en casa jugando un videojuego en mi computadora. Mi trabajo es inflar un globo a la vez y ganar la mayor cantidad de dinero posible. Cada vez que hago clic en "Pump", el globo se expande y recibo cinco centavos virtuales. Pero si el g…

Las herramientas de inteligencia artificial no logran reducir el sesgo de reclutamiento: estudio
bbc.com · 2022

Las herramientas de contratación artificialmente inteligentes no reducen el sesgo ni mejoran la diversidad, dicen los investigadores en un estudio.

"Hay un interés creciente en nuevas formas de resolver problemas como el sesgo en las entrev…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents