Incidentes Asociados

Norman siempre ve lo peor de las cosas.
Eso es porque Norman es un "psicópata" impulsado por inteligencia artificial y desarrollado por el MIT Media Lab.
Norman es un algoritmo destinado a mostrar cómo los datos detrás de la IA son muy importantes.
Los investigadores del MIT dicen que entrenaron a Norman usando los subtítulos escritos que describen imágenes gráficas y videos sobre la muerte publicados en los "rincones más oscuros de Reddit", una popular plataforma de tablero de mensajes.
Luego, el equipo examinó las respuestas de Norman a las manchas de tinta utilizadas en una prueba psicológica de Rorschach. Las respuestas de Norman se compararon con la reacción de otro algoritmo que tenía un entrenamiento estándar. Ese algoritmo vio flores y pasteles de boda en las manchas de tinta. Norman vio imágenes de un hombre que recibió un disparo mortal y un hombre asesinado por un conductor a alta velocidad.
“Norman solo observó leyendas de imágenes horribles, por lo que ve la muerte en cualquier imagen que mire”, dijeron a CNNMoney los investigadores del MIT detrás de Norman.
Relacionado: Amazon pidió dejar de vender tecnología de reconocimiento facial a la policía
Nombrado en honor al personaje principal de "Psycho" de Alfred Hitchcock, Norman "representa un estudio de caso sobre los peligros de que la Inteligencia Artificial salga mal cuando se utilizan datos sesgados en algoritmos de aprendizaje automático", según el MIT.
Hemos visto ejemplos antes de cómo la IA es tan buena como los datos de los que aprende. En 2016, Microsoft (MSFT) lanzó Tay, un bot de chat de Twitter. En ese momento, una portavoz de Microsoft dijo que Tay era un experimento social, cultural y técnico. Pero los usuarios de Twitter provocaron que el bot dijera cosas racistas e inapropiadas, y funcionó. Mientras las personas conversaban con Tay, el bot recogía el lenguaje de los usuarios. Microsoft finalmente desconectó el bot.
El equipo del MIT cree que será posible que Norman vuelva a entrenar su forma de pensar aprendiendo de la retroalimentación humana. Los humanos pueden realizar la misma prueba de manchas de tinta para agregar sus respuestas al grupo de datos.
Según los investigadores, han recibido más de 170.000 respuestas a su prueba, la mayoría de las cuales llegaron durante la semana pasada, luego de un informe de la BBC sobre el proyecto.
El MIT ha explorado otros proyectos que incorporan el lado oscuro de los datos y el aprendizaje automático. En 2016, algunos de los mismos investigadores de Norman lanzaron "Nightmare Machine", que utilizó el aprendizaje profundo para transformar rostros de imágenes o lugares para que parecieran sacados de una película de terror. El objetivo era ver si las máquinas podían aprender a asustar a las personas.
El MIT también ha explorado los datos como una herramienta de empatía. En 2017, los investigadores crearon una herramienta de inteligencia artificial llamada Empatía profunda para ayudar a las personas a relacionarse mejor con las víctimas de desastres. Usó tecnología para simular visualmente cómo se vería si ese mismo desastre ocurriera en su ciudad natal.