Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2653

Loading...
Sesgo, racismo y mentiras: afrontando las consecuencias no deseadas de la IA
news.un.org · 2020

La frase "inteligencia artificial" puede evocar imágenes de máquinas que pueden pensar y actuar, al igual que los humanos, independientemente de cualquier supervisión de personas reales, de carne y hueso. Las versiones cinematográficas de IA tienden a presentar máquinas superinteligentes que intentan derrocar a la humanidad y conquistar el mundo.

La realidad es más prosaica y tiende a describir un software que puede resolver problemas, encontrar patrones y, en cierta medida, "aprender". Esto es particularmente útil cuando es necesario clasificar y comprender grandes cantidades de datos, y la IA ya se está utilizando en una gran cantidad de escenarios, particularmente en el sector privado.

Los ejemplos incluyen chatbots capaces de realizar correspondencia en línea; sitios de compras en línea que aprenden a predecir lo que podría querer comprar; y periodistas de AI que escriben artículos deportivos y de negocios (esta historia fue, les puedo asegurar, escrita por un humano).

Y, aunque una noticia reciente de Irán ha reavivado los temores sobre el uso de robots asesinos (las autoridades iraníes han afirmado que se utilizó una "ametralladora con IA" para asesinar al científico nuclear más importante del país), las historias negativas relacionadas con la IA, que han incluido calificaciones de exámenes incorrectamente degradadas en el Reino Unido, un hombre inocente enviado a la cárcel en los EE.

Antes del lanzamiento de una guía de la ONU para comprender la ética de la IA, aquí hay cinco cosas que debe saber sobre el uso de la IA, sus consecuencias y cómo se puede mejorar.

1) Las consecuencias del mal uso pueden ser devastadoras

En enero, un hombre afroamericano en el estado estadounidense de Michigan fue arrestado por un delito de hurto en una tienda del que no sabía nada. Fue detenido luego de ser esposado afuera de su casa frente a su familia.

Se cree que este es el primer arresto injustificado de este tipo: los oficiales de policía involucrados habían confiado en la IA de reconocimiento facial para atrapar a su hombre, pero la herramienta no había aprendido a reconocer las diferencias entre las caras negras porque las imágenes utilizadas para entrenarlo tenían en su mayoría ha sido de caras blancas.

Afortunadamente, rápidamente se hizo evidente que no se parecía en nada al sospechoso visto en una imagen tomada de las cámaras de seguridad de la tienda, y fue liberado, aunque pasó varias horas en la cárcel.

Y, en julio, hubo un gran revuelo en el Reino Unido, cuando los sueños de muchos estudiantes que esperaban ir a la universidad de su elección se vieron frustrados, cuando se utilizó un programa informático para evaluar sus calificaciones (los exámenes tradicionales habían sido cancelados, debido a la COVID-19 pandemia).

Para determinar qué habrían obtenido los estudiantes si hubieran realizado los exámenes, el programa tomó sus calificaciones existentes y también tuvo en cuenta el historial de su escuela a lo largo del tiempo. Esto terminó penalizando a los estudiantes brillantes de barrios minoritarios y de bajos ingresos, que tienen más probabilidades de ir a escuelas que tienen, en general, calificaciones promedio más bajas que las escuelas a las que asisten estudiantes más ricos.

Estos ejemplos muestran que, para que las herramientas de IA funcionen correctamente, los científicos de datos bien capacitados deben trabajar con datos de alta calidad. Desafortunadamente, gran parte de los datos utilizados para enseñar IA actualmente se toman de consumidores de todo el mundo, a menudo sin su consentimiento explícito: los países más pobres a menudo carecen de la capacidad para garantizar que los datos personales estén protegidos o para proteger a sus sociedades de los dañinos ataques cibernéticos. y desinformación que han crecido desde la pandemia de COVID-19.

2) El odio, la división y la mentira son buenos para los negocios

Muchas empresas de redes sociales han sido criticadas por escépticos expertos por usar algoritmos, impulsados por IA, para micro-objetivos de usuarios y enviarles contenido personalizado que reforzará sus prejuicios. Cuanto más incendiario sea el contenido, más posibilidades hay de que sea consumido y compartido.

La razón por la que estas empresas están felices de "empujar" contenido socialmente divisivo y polarizador a sus usuarios es que aumenta la probabilidad de que permanezcan más tiempo en la plataforma, lo que mantiene contentos a sus anunciantes y aumenta sus ganancias.

Esto ha aumentado la popularidad de las publicaciones extremistas y llenas de odio, difundidas por grupos que de otro modo serían grupos marginales poco conocidos. Durante la pandemia de COVID-19, también ha dado lugar a la difusión de información errónea peligrosa sobre el virus, lo que podría llevar a que más personas se infecten, dicen muchos expertos.

3) La desigualdad global se refleja en línea

Existe una fuerte evidencia que sugiere que la IA está desempeñando un papel en hacer que el mundo sea más desigual y está beneficiando a una pequeña proporción de personas. Por ejemplo, más de las tres cuartas partes de todas las nuevas innovaciones y patentes digitales son producidas por solo 200 empresas. De las 15 plataformas digitales más grandes que usamos, 11 son de EE. UU., mientras que el resto son chinas.

Esto significa que las herramientas de IA están diseñadas principalmente por desarrolladores en Occidente. De hecho, estos desarrolladores son en su gran mayoría hombres blancos, que también representan la gran mayoría de los autores sobre temas de IA. El caso del arresto injusto en Michigan es solo un ejemplo de los peligros que plantea la falta de diversidad en este campo tan importante.

También significa que, para 2030, se espera que América del Norte y China obtengan la mayor parte de las ganancias económicas, que se espera que valgan billones de dólares, que se prevé que genere la IA.

4) Los beneficios potenciales son enormes

Esto no quiere decir que la IA deba usarse menos: las innovaciones que utilizan la tecnología son inmensamente útiles para la sociedad, como hemos visto durante la pandemia.

Los gobiernos de todo el mundo han recurrido a soluciones digitales para nuevos problemas, desde aplicaciones de rastreo de contactos hasta telemedicina y medicamentos entregados por drones y, para rastrear la propagación mundial de COVID-19, se ha empleado IA para rastrear a través de vastos almacenes de datos derivados de nuestras interacciones en las redes sociales y en línea.

Sin embargo, los beneficios van mucho más allá de la pandemia: la IA puede ayudar en la lucha contra la crisis climática, impulsando modelos que podrían ayudar a restaurar ecosistemas y hábitats, y retrasar la pérdida de biodiversidad; y salvar vidas ayudando a las organizaciones humanitarias a dirigir mejor sus recursos donde más se necesitan.

El problema es que las herramientas de IA se están desarrollando tan rápidamente que ni los diseñadores, ni los accionistas corporativos ni los gobiernos han tenido tiempo de considerar los peligros potenciales de estas deslumbrantes nuevas tecnologías.

5) Necesitamos acordar una regulación internacional de IA


Por estas razones, la agencia de las Naciones Unidas para la educación, la ciencia y la cultura, UNESCO, está consultando a una amplia gama de grupos, incluidos representantes de la sociedad civil, el sector privado y el público en general. público, con el fin de establecer estándares internacionales de IA y garantizar que la tecnología tenga una base ética sólida, que abarque el estado de derecho y la promoción de los derechos humanos.

Las áreas importantes que deben considerarse incluyen la importancia de traer más diversidad en el campo de la ciencia de datos para reducir el sesgo y los estereotipos raciales y de género; el uso adecuado de la IA en los sistemas judiciales para hacerlos más justos y eficientes; y encontrar formas de garantizar que los beneficios de la tecnología se distribuyan entre tantas personas como sea posible.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd