Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 730

Incidentes Asociados

Incidente 4127 Reportes
All Image Captions Produced are Violent

Loading...
El MIT crea un psicópata de IA porque alguien tuvo que hacerlo eventualmente
geek.com · 2018

En uno de los grandes números musicales de The Life Of Brian, Eric Idle nos recuerda que “siempre miremos el lado positivo de la vida”. Norman, un nuevo proyecto de inteligencia artificial del MIT, no sabe cómo hacerlo.

Eso es porque Norman es un psicópata, al igual que el personaje de Hitchcock que inspiró al equipo de investigación para crearlo.

Al igual que muchos de estos proyectos, los investigadores del MIT comenzaron entrenando a Norman en los datos disponibles gratuitamente que se encuentran en la Web. Sin embargo, en lugar de mirar la tarifa habitual de Google Images para familias, señalaron a Norman hacia imágenes más oscuras. Específicamente, el equipo del MIT metió a Norman en un espeluznante subreddit para hacer su entrenamiento inicial.

Armado con esta masa retorcida de recuerdos digitales, se le pidió a Norman que subtitulara una serie de manchas de tinta de Rorschach. Los resultados son predeciblemente espeluznantes. Echemos un vistazo a un par, ¿de acuerdo?

Tienes que dárselo a Norman, pinta una imagen vívida. No siempre es tan prosaico, pero siempre se apega a la línea de tiempo más oscura. Ya sabes, en el que Abed intenta cortar el brazo de Jeff con una sierra para huesos.

La IA estándar piensa en bodas, Norman piensa en funerales. O tal vez la escena del crimen.

El equipo del MIT dio en el clavo cuando dijo: "Norman sufrió una exposición prolongada a los rincones más oscuros de Reddit". Afortunadamente, todavía hay esperanza para esta IA perturbada.

Si todos nos reunimos y lo volvemos a entrenar enviando nuestras propias respuestas a las imágenes de prueba del MIT, tal vez Norman pueda comenzar a ver el mundo a través de lentes un poco más color de rosa. Por otra parte, también podría fracasar horriblemente.

De cualquier manera, refuerza un hecho muy importante sobre la IA: que la visión del mundo de una IA está determinada en gran medida por la información que recopila mientras aprende. Eso obviamente no es una nueva revelación. Vimos algo similar cuando el bot de Twitter de Microsoft pasó de normal a racista en menos de 24 horas.

Háganos saber lo que le gusta de Geek respondiendo nuestra encuesta.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd