Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2352

Loading...
¿Terrorista o pedófilo? Esta start-up dice que puede revelar secretos analizando rostros
washingtonpost.com · 2016

Una nueva empresa israelí dice que puede mirar la cara de una persona y darse cuenta de los rasgos de carácter que son indetectables para el ojo humano.

Faception dijo que ya firmó un contrato con una agencia de seguridad nacional para ayudar a identificar a los terroristas. La compañía dijo que su tecnología también se puede usar para identificar todo, desde grandes jugadores de póquer hasta extrovertidos, pedófilos, genios y delincuentes de cuello blanco.

"Entendemos a los humanos mucho mejor de lo que otros humanos se entienden unos a otros", dijo el director ejecutivo de Faception, Shai Gilboa. "Nuestra personalidad está determinada por nuestro ADN y se refleja en nuestro rostro. Es una especie de señal".

Faception ha construido 15 clasificadores diferentes, que según Gilboa evalúan ciertos rasgos con un 80 por ciento de precisión. La puesta en marcha está avanzando, viendo un tremendo poder en la capacidad de una máquina para analizar imágenes.

Sin embargo, los expertos advierten que existen cuestiones éticas y límites profundos a la efectividad de una tecnología como esta.

"¿Puedo predecir que eres un asesino con hacha al mirar tu cara y, por lo tanto, debería arrestarte?" dijo Pedro Domingos, profesor de informática en la Universidad de Washington y autor de "El algoritmo maestro". "Puedes ver cómo esto sería controvertido".

Gilboa dijo que también se desempeña como director de ética de la compañía y nunca pondrá a disposición del público en general sus clasificadores que predicen rasgos negativos.

El peligro radica en las imperfecciones del sistema informático. Por eso, Gilboa prevé que los gobiernos consideren sus hallazgos junto con otras fuentes para identificar mejor a los terroristas. Aun así, el uso de los datos es preocupante para algunos.

"La evidencia de que estos juicios son precisos es extremadamente débil", dijo Alexander Todorov, profesor de psicología de Princeton cuya investigación incluye la percepción facial. "Justo cuando pensábamos que la fisonomía terminó hace 100 años. Oh, bueno".

Faception mostró recientemente su tecnología en un torneo de póquer organizado por una empresa emergente que comparte inversores con Faception. Gilboa dijo que Faception predijo antes del torneo que cuatro jugadores de los 50 aficionados serían los mejores. Cuando el polvo se asentó, dos de esos cuatro estaban entre los tres finalistas del evento. Para hacer su predicción, Faception analizó fotos de los 50 jugadores contra una base de datos de Faception de jugadores de póquer profesionales.

Existen desafíos al tratar de utilizar sistemas de inteligencia artificial para sacar conclusiones como esta. Una computadora que está entrenada para analizar imágenes solo será tan buena como los ejemplos en los que está entrenada. Si la computadora está expuesta a una muestra de datos limitada o desactualizada, sus conclusiones serán sesgadas. Además, existe el riesgo de que el sistema haga una predicción precisa, pero no necesariamente por las razones correctas.

Domingos, el profesor de la Universidad de Washington, compartió el ejemplo de un colega que entrenó un sistema informático para diferenciar entre perros y lobos. Las pruebas demostraron que el sistema era casi 100 por ciento preciso. Pero resultó que la computadora tuvo éxito porque aprendió a buscar nieve en el fondo de las fotos. Todas las fotos de lobos fueron tomadas en la nieve, mientras que las fotos de perros no.

Además, un sistema de inteligencia artificial podría concentrarse en un rasgo que una persona podría cambiar, como la presencia de barba, lo que limita su capacidad para hacer una predicción precisa.

"Si alguien viniera a mí y me dijera 'Tengo una empresa que intentará hacer esto', mi respuesta sería 'no, ve a hacer algo más prometedor'", dijo Domingos. "Pero, por otro lado, el aprendizaje automático nos trae muchas sorpresas todos los días".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd