Incidentes Asociados

Investigadores del MIT han programado una IA utilizando exclusivamente contenido violento y espantoso de Reddit.
Lo llamaron "Norman".
Como resultado, Norman solo ve la muerte en todo.
Esta no es la primera vez que Internet oscurece una IA; también le sucedió a "Tay" de Microsoft.
Algunas personas temen a la Inteligencia Artificial, quizás porque han visto demasiadas películas como “Terminator” y “I, Robot” donde las máquinas se alzan contra la humanidad, o quizás porque pasan demasiado tiempo pensando en el basilisco de Roko.
Resulta que es posible crear una IA que esté obsesionada con el asesinato.
Eso es lo que hicieron los científicos Pinar Yanardag, Manuel Cebrian e Iyad Rahwan en el Instituto Tecnológico de Massachusetts cuando programaron un algoritmo de inteligencia artificial exponiéndolo solo a contenido espantoso y violento en Reddit, y luego lo llamaron "Norman".
Norman recibió su nombre del personaje de Norman Bates de "Psycho" y "representa un estudio de caso sobre los peligros de que la inteligencia artificial salga mal cuando se utilizan datos sesgados en algoritmos de aprendizaje automático", según el MIT.
Los científicos probaron a Norman para ver cómo respondería a las pruebas de manchas de tinta: las imágenes ambiguas de tinta que los psicólogos usan a veces para ayudar a determinar las características de la personalidad o el funcionamiento emocional.
En la primera mancha de tinta, una IA normalmente programada vio "un grupo de pájaros sentados en la parte superior de la rama de un árbol". Norman, sin embargo, vio “un hombre electrocutado y atrapado hasta la muerte”.
Cuando la IA normal vio un pájaro blanco y negro, una persona que sostenía un paraguas y un pastel de bodas, Norman vio a un hombre siendo arrastrado hacia una máquina de hacer masa, un hombre siendo asesinado por un conductor a alta velocidad y "un hombre es asesinado a tiros en frente". de su esposa que grita.”
“Norman solo observó leyendas de imágenes horribles, por lo que ve la muerte en cualquier imagen que mire”, dijeron los investigadores a CNNMoney.
Internet es un lugar oscuro, y otros experimentos de IA han demostrado cuán rápido pueden cambiar las cosas cuando una IA está expuesta a los peores lugares y personas en ella. El bot de Twitter de Microsoft “Tay” tuvo que cerrarse a las pocas horas cuando se lanzó en 2016, porque rápidamente comenzó a arrojar discursos de odio e insultos raciales, y a negar el Holocausto.
Pero no todo está perdido para Norman. El equipo cree que se puede volver a entrenar para tener un punto de vista menos "psicopático" aprendiendo de las respuestas humanas a las mismas pruebas de manchas de tinta. La IA también se puede usar para bien, como cuando el MIT logró crear un algoritmo llamado "Empatía profunda" el año pasado, para ayudar a las personas a relacionarse con las víctimas de un desastre.
Sin embargo, nada de esto ha impedido que la gente en Internet se asuste.
Aquí hay algunas reacciones de Twitter a Norman:
1984: ¿Cómo se hizo Terminator? ¿Quién pensó que crear un robot psicópata era una buena idea?
2018: https://t.co/8wpp3NJGiA — Ethan Buckley (@HeyMrBuckley) 7 de junio de 2018
En caso de que necesites nuevo combustible para pesadillas... No entiendo por qué @MIT
ha hecho esto???? ¿No hay nada más que hacer? *gestos literalmente en todas partes *https://t.co/ximpga7WFj — Melody ????❤️ (@ScientistMel) 7 de junio de 2018
imagina ser asesinado por el robot más insufrible del mundo y lo último que escuchas antes de morir es "ad hominem" https://t.co/lyshrr0gOf — Brandy Jensen (@BrandyLJensen) 7 de junio de 2018
El sitio de correos electrónicos y alertas de Business Insider destaca cada día en su bandeja de entrada. Dirección de correo electrónico Unirse
Siga a Business Insider Australia en Facebook, Twitter, LinkedIn e Instagram.