Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 720

Incidentes Asociados

Incidente 4127 Reportes
All Image Captions Produced are Violent

Loading...
Científicos del MIT presentan la primera IA psicópata, 'Norman'
rollingstone.com · 2018

Científicos del Instituto Tecnológico de Massachusetts dieron a conocer el primer algoritmo de inteligencia artificial entrenado para ser un psicópata. La IA fue apodada apropiadamente "Norman" en honor a Norman Bates, el notorio asesino en Psicosis de Alfred Hitchcock.

Los científicos del MIT Pinar Yanardag, Manuel Cebrian e Iyad Rahwan entrenaron a Norman para realizar subtítulos de imágenes, "un método de aprendizaje profundo" que permite a la IA generar descripciones de texto para las imágenes. Sin embargo, el equipo expuso exclusivamente a Norman a imágenes violentas e inquietantes publicadas en un subreddit dedicado a la muerte.

Luego le dieron a Norman una prueba de manchas de tinta de Rorschach y la IA respondió con interpretaciones escalofriantes como "un hombre es electrocutado y muere atrapado", "una mujer embarazada cae en una construcción" y "un hombre es asesinado a tiros frente a su esposa que grita". Mientras tanto, una IA estándar respondió a las mismas manchas de tinta con "un primer plano de un jarrón con flores", "un par de personas de pie una al lado de la otra" y "una persona sostiene un paraguas en el aire".

Si bien Norman puede evocar imágenes distópicas de robots asesinos, el equipo del MIT dijo que el propósito del experimento era demostrar que los algoritmos de IA no están inherentemente sesgados, sino que los métodos de ingreso de datos, y las personas que ingresan esos datos, pueden alterar significativamente el comportamiento de una IA. . Como señaló Newsweek, ha habido varios casos notables en los que el racismo y los prejuicios se han infiltrado en el aprendizaje automático, como el algoritmo de reconocimiento de imágenes de Google Photos que clasificaba a las personas negras como "gorilas".

“Entonces, cuando la gente dice que los algoritmos de IA pueden ser sesgados e injustos, el culpable a menudo no es el algoritmo en sí, sino los datos sesgados que se le suministraron”, dijo el equipo de Norman. "El mismo método puede ver cosas muy diferentes en una imagen, incluso cosas 'enfermas', si se entrena en el conjunto de datos incorrecto (¡o correcto!)".

Sin embargo, los algoritmos de IA pueden desaprender los sesgos. El equipo del MIT ha creado un sitio web donde las personas pueden ingresar interpretaciones más alegres de las manchas de tinta de Rorschach para sofocar el macabro estado mental de Norman.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd