Incidentes Asociados

Científicos del Instituto Tecnológico de Massachusetts (MIT) entrenaron un algoritmo de inteligencia artificial llamado "Norman" para convertirse en un psicópata solo exponiéndolo a macabras imágenes de muertes y violencia espantosas en Reddit, según un nuevo estudio.
Apodado Norman por el personaje de Anthony Perkins en la película Psycho de Alfred Hitchcock de 1960, la inteligencia artificial se alimentó solo con un flujo continuo de imágenes violentas de varios subreddits perniciosos antes de probarse con las pruebas de manchas de tinta de Rorschach. Las imágenes detectadas por Norman produjeron interpretaciones espeluznantes de electrocuciones y muertes de automóviles a alta velocidad donde una IA estándar solo vería paraguas y pasteles de boda.
MIT: Proyecto normando
Los científicos del MIT Pinar Yanardag, Manuel Cebrian e Iyad Rahwan entrenaron específicamente a la IA para realizar subtítulos de imágenes, un "método de aprendizaje profundo" para que la inteligencia artificial seleccione imágenes y produzca las descripciones correspondientes por escrito. Su investigación se propuso demostrar que el método de entrada utilizado para enseñar un algoritmo de aprendizaje automático puede influir en gran medida en su comportamiento posterior. Los científicos argumentaron que cuando se acusa a los algoritmos de ser sesgados o injustos, como los casos de alto perfil de las noticias de Facebook o Google Photos, "el culpable a menudo no es el algoritmo en sí, sino los datos sesgados que se introdujeron en él".
Entre las manchas de tinta de Rorschach utilizadas para probar la IA ahora contaminada, Norman dijo que una imagen mostraba a un hombre siendo "asesinado a tiros", mientras que una IA estándar miró la misma imagen y vio "un primer plano de un jarrón con flores". En otro, Norman dijo que vio a un hombre recibir un disparo "frente a su esposa que gritaba", mientras que la IA que no estuvo expuesta a imágenes sórdidas e inquietantes vio a "una persona sosteniendo un paraguas en el aire".
En una de las pruebas de manchas de tinta, la IA estándar vio una escena conmovedora de una pareja de pie juntos. Norman, sin embargo, vio a una mujer embarazada caer de una construcción. Habiendo estado expuesto solo a imágenes negativas y pensamientos deprimentes, la lógica de empatía de la IA simplemente no se encendió. Skye McDonald, profesora de neuropsicología clínica en la Universidad de Nueva Gales del Sur, dijo que el robot "Pepper" de Aldebaran Robotics puede ser uno de los experimentos más cercanos en la enseñanza de la empatía humana, dijo a The Conversation. Los expertos en robótica tienen la esperanza de que algún día la inteligencia artificial pueda comprender las emociones de un humano simplemente al ver las expresiones faciales de una persona. Sin embargo, argumentó McDonald, la tecnología "todavía está muy lejos de comprender completamente las complejidades de cómo opera la empatía humana".
En un evento del MIT en Nueva York el mes pasado, Andrew McAfee, codirector de la Iniciativa sobre la economía digital del MIT, se unió a varios expertos de Silicon Valley que detallaron casos anteriores en los que el racismo y los prejuicios se habían filtrado en varios algoritmos. El panel advirtió que si bien los departamentos de recursos humanos pueden tomar decisiones de contratación inteligentes, los sesgos contra las minorías pueden surgir del ser humano que programó el algoritmo. McAfee y los otros expertos en tecnología que analizan el sesgo algorítmico dijeron que la IA puede seguir siendo efectiva e imparcial "siempre y cuando" los datos de entrada sean precisos.
Los investigadores del MIT en este estudio redactaron el nombre de los subreddits específicos utilizados para entrenar la IA. Los investigadores dijeron que la IA "sufrió una exposición prolongada a los rincones más oscuros de Reddit" para ilustrar "los peligros de que la Inteligencia Artificial salga mal cuando se utilizan datos sesgados en algoritmos de aprendizaje automático".