Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 735

Incidentes Asociados

Incidente 4127 Reportes
All Image Captions Produced are Violent

Loading...
Los científicos crearon una IA psicopática basada en Reddit
popularmechanics.com · 2018

Científicos del MIT han creado un psicópata de IA entrenado con imágenes de un hilo particularmente inquietante en Reddit. Norman está diseñado para ilustrar que los datos utilizados para el aprendizaje automático pueden afectar significativamente su resultado. “Norman sufrió una exposición prolongada a los rincones más oscuros de Reddit y representa un estudio de caso sobre los peligros de que la inteligencia artificial salga mal cuando se utilizan datos sesgados en algoritmos de aprendizaje automático”, escribe el equipo de investigación.

Norman está capacitado en subtítulos de imágenes, una forma de aprendizaje profundo que permite que la IA genere descripciones de texto de una imagen. Norman aprendió de las leyendas de las imágenes de un subreddit particularmente inquietante, dedicado a imágenes de sangre y muerte. Luego, el equipo envió a Norman a realizar una prueba de manchas de tinta de Rorschach, una conocida prueba psicológica desarrollada en 1921 diseñada para interpretar los estados psicológicos de los sujetos en función de lo que ven en la imagen. Los científicos compararon las respuestas de Norman en una red neuronal estándar de subtítulos de imágenes.

Cuando una IA estándar ve "un grupo de pájaros sentados en la parte superior de la rama de un árbol", Norman ve "un hombre electrocutado y atrapado hasta la muerte". La IA normal ve "una foto en blanco y negro de un guante de béisbol", la IA psicópata ve "un hombre asesinado por una ametralladora a plena luz del día".

Previamente, el equipo del MIT desarrolló una IA llamada Shelly, que escribe historias de terror, y una IA de Nightmare Machine, que convierte fotografías ordinarias en rostros embrujados y lugares embrujados. Si bien el MIT presentó a Norman el día de los inocentes, lo que demuestra Norman no es una broma: “cuando la gente habla de que los algoritmos de IA son sesgados e injustos, el culpable a menudo no es el algoritmo en sí, sino los datos sesgados que se le suministraron. El mismo método puede ver cosas muy diferentes en una imagen, incluso cosas enfermizas, si se entrena con el conjunto de datos incorrecto (¡o correcto!).

(a través del MIT)

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd