Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 737

Incidentes Asociados

Incidente 4127 Reportes
All Image Captions Produced are Violent

Loading...
Los científicos han creado una IA 'psicópata' obsesionada con el asesinato llamada Norman, y aprendió todo lo que sabe de Reddit
businessinsider.com.au · 2018

Investigadores del MIT han programado una IA utilizando exclusivamente contenido violento y espantoso de Reddit.

Lo llamaron "Norman".

Como resultado, Norman solo ve la muerte en todo.

Esta no es la primera vez que Internet oscurece una IA; también le sucedió a "Tay" de Microsoft.

Algunas personas temen a la Inteligencia Artificial, quizás porque han visto demasiadas películas como “Terminator” y “I, Robot” donde las máquinas se alzan contra la humanidad, o quizás porque pasan demasiado tiempo pensando en el basilisco de Roko.

Resulta que es posible crear una IA que esté obsesionada con el asesinato.

Eso es lo que hicieron los científicos Pinar Yanardag, Manuel Cebrian e Iyad Rahwan en el Instituto Tecnológico de Massachusetts cuando programaron un algoritmo de inteligencia artificial exponiéndolo solo a contenido espantoso y violento en Reddit, y luego lo llamaron "Norman".

Norman recibió su nombre del personaje de Norman Bates de "Psycho" y "representa un estudio de caso sobre los peligros de que la inteligencia artificial salga mal cuando se utilizan datos sesgados en algoritmos de aprendizaje automático", según el MIT.

Los científicos probaron a Norman para ver cómo respondería a las pruebas de manchas de tinta: las imágenes ambiguas de tinta que los psicólogos usan a veces para ayudar a determinar las características de la personalidad o el funcionamiento emocional.

En la primera mancha de tinta, una IA normalmente programada vio "un grupo de pájaros sentados en la parte superior de la rama de un árbol". Norman, sin embargo, vio “un hombre electrocutado y atrapado hasta la muerte”.

Cuando la IA normal vio un pájaro blanco y negro, una persona que sostenía un paraguas y un pastel de bodas, Norman vio a un hombre siendo arrastrado hacia una máquina de hacer masa, un hombre siendo asesinado por un conductor a alta velocidad y "un hombre es asesinado a tiros en frente". de su esposa que grita.”

“Norman solo observó leyendas de imágenes horribles, por lo que ve la muerte en cualquier imagen que mire”, dijeron los investigadores a CNNMoney.

Internet es un lugar oscuro, y otros experimentos de IA han demostrado cuán rápido pueden cambiar las cosas cuando una IA está expuesta a los peores lugares y personas en ella. El bot de Twitter de Microsoft “Tay” tuvo que cerrarse a las pocas horas cuando se lanzó en 2016, porque rápidamente comenzó a arrojar discursos de odio e insultos raciales, y a negar el Holocausto.

Pero no todo está perdido para Norman. El equipo cree que se puede volver a entrenar para tener un punto de vista menos "psicopático" aprendiendo de las respuestas humanas a las mismas pruebas de manchas de tinta. La IA también se puede usar para bien, como cuando el MIT logró crear un algoritmo llamado "Empatía profunda" el año pasado, para ayudar a las personas a relacionarse con las víctimas de un desastre.

Sin embargo, nada de esto ha impedido que la gente en Internet se asuste.

Aquí hay algunas reacciones de Twitter a Norman:

1984: ¿Cómo se hizo Terminator? ¿Quién pensó que crear un robot psicópata era una buena idea?

2018: https://t.co/8wpp3NJGiA — Ethan Buckley (@HeyMrBuckley) 7 de junio de 2018

En caso de que necesites nuevo combustible para pesadillas... No entiendo por qué @MIT

ha hecho esto???? ¿No hay nada más que hacer? *gestos literalmente en todas partes *https://t.co/ximpga7WFj — Melody ????❤️ (@ScientistMel) 7 de junio de 2018

imagina ser asesinado por el robot más insufrible del mundo y lo último que escuchas antes de morir es "ad hominem" https://t.co/lyshrr0gOf — Brandy Jensen (@BrandyLJensen) 7 de junio de 2018

El sitio de correos electrónicos y alertas de Business Insider destaca cada día en su bandeja de entrada. Dirección de correo electrónico Unirse

Siga a Business Insider Australia en Facebook, Twitter, LinkedIn e Instagram.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd