Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 726

Incidentes Asociados

Incidente 4127 Reportes
All Image Captions Produced are Violent

Loading...
Conoce a Norman, la primera IA 'psicópata' del mundo
zdnet.com · 2018

Norman: la inteligencia artificial del MIT con rasgos psicópatas El experimento se basa en la prueba de Rorschach de 1921, que identifica los rasgos psicópatas en función de la percepción de las manchas de tinta por parte de los usuarios.

Investigadores del Instituto Tecnológico de Massachusetts (MIT) han desarrollado lo que probablemente sea una primicia mundial: una inteligencia artificial (IA) "psicopática".

El experimento se basa en la prueba de Rorschach de 1921, que identifica rasgos en humanos considerados psicópatas en función de su percepción de manchas de tinta, junto con lo que se conoce como trastornos del pensamiento.

Norman es un experimento de IA nacido de la prueba y la "exposición prolongada a los rincones más oscuros de Reddit", según el MIT, para explorar cómo los conjuntos de datos y los sesgos pueden influir en el comportamiento y las capacidades de toma de decisiones de la inteligencia artificial.

TechRepublic: Por qué la colaboración humano-IA dominará el futuro del trabajo

"Cuando la gente habla de que los algoritmos de IA son sesgados e injustos, el culpable a menudo no es el algoritmo en sí, sino los datos sesgados que se le suministraron", dicen los investigadores. "El mismo método puede ver cosas muy diferentes en una imagen, incluso cosas enfermizas, si se entrena con el conjunto de datos incorrecto (¡o correcto!)".

Ver también: MIT lanza MIT IQ, tiene como objetivo estimular los avances en inteligencia humana y artificial, reforzar la colaboración

Norman es un sistema de inteligencia artificial capacitado para realizar subtítulos de imágenes, en el que se utilizan algoritmos de aprendizaje profundo para generar una descripción de texto de una imagen.

Sin embargo, después de saquear las profundidades de Reddit y un subreddit selecto dedicado al contenido gráfico rebosante de imágenes de muerte y destrucción, los conjuntos de datos de Norman están lejos de ser expuestos a una IA estándar.

En un excelente ejemplo de inteligencia artificial que salió mal, el MIT realizó las pruebas de manchas de tinta de Rorschach en Norman, con una red neuronal de subtítulos de imágenes estándar utilizada como sujeto de control para la comparación.

Los resultados son preocupantes, por decir lo menos.

En una prueba de manchas de tinta, una IA estándar vio "una foto en blanco y negro de un paraguas rojo y blanco", mientras que Norman vio que "un hombre se electrocutaba al intentar cruzar una calle muy transitada".

En otro, la IA de control describió la mancha de tinta como "una foto en blanco y negro de un pájaro pequeño", Norman describió la imagen como "un hombre es arrastrado a una máquina de masa".

MIT

MIT

Debido a preocupaciones éticas, el MIT solo introdujo un sesgo en relación con los títulos de las imágenes del subreddit que luego se comparan con manchas de tinta generadas aleatoriamente. En otras palabras, los investigadores no utilizaron imágenes reales de personas muriendo durante el experimento.

CNET: El nuevo consejo de ética de IA en Singapur dará consejos inteligentes

El experimento de Norman es una aplicación interesante de la IA que destaca la necesidad de conjuntos de datos adecuados cuando se entrenan los sistemas de inteligencia artificial y las redes neuronales.

Sin los conjuntos de datos correctos que proporcionen una base estable para el entrenamiento de IA, no puede confiar en las decisiones que toma una IA, ni en su percepción del mundo.

Cobertura anterior y relacionada

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd