Incidents associés

Norman voit toujours le pire dans les choses.
C'est parce que Norman est un "psychopathe" alimenté par l'intelligence artificielle et développé par le MIT Media Lab.
Norman est un algorithme destiné à montrer à quel point les données derrière l'IA sont importantes.
Les chercheurs du MIT disent avoir formé Norman en utilisant les légendes écrites décrivant des images graphiques et des vidéos sur la mort publiées sur les "coins les plus sombres de Reddit", une plate-forme de messagerie populaire.
L'équipe a ensuite examiné les réponses de Norman aux taches d'encre utilisées dans un test psychologique de Rorschach. Les réponses de Norman ont été comparées à la réaction d'un autre algorithme qui avait une formation standard. Cet algorithme a vu des fleurs et des gâteaux de mariage dans les taches d'encre. Norman a vu des images d'un homme tué par balle et d'un homme tué par un excès de vitesse.
"Norman n'a observé que des légendes d'image horribles, il voit donc la mort dans n'importe quelle image qu'il regarde", ont déclaré les chercheurs du MIT derrière Norman à CNNMoney.
En relation: Amazon a demandé de cesser de vendre la technologie de reconnaissance faciale à la police
Nommé d'après le personnage principal de "Psycho" d'Alfred Hitchcock, Norman "représente une étude de cas sur les dangers de l'intelligence artificielle qui tourne mal lorsque des données biaisées sont utilisées dans des algorithmes d'apprentissage automatique", selon le MIT.
Nous avons déjà vu des exemples de la façon dont l'IA est aussi bonne que les données dont elle tire des enseignements. En 2016, Microsoft (MSFT) a lancé Tay, un chat bot Twitter. À l'époque, une porte-parole de Microsoft a déclaré que Tay était une expérience sociale, culturelle et technique. Mais les utilisateurs de Twitter ont poussé le bot à dire des choses racistes et inappropriées, et cela a fonctionné. Alors que les gens discutaient avec Tay, le bot a repris le langage des utilisateurs. Microsoft a finalement mis le bot hors ligne.
L'équipe du MIT pense qu'il sera possible pour Norman de recycler sa façon de penser en apprenant de la rétroaction humaine. Les humains peuvent passer le même test de tache d'encre pour ajouter leurs réponses au pool de données.
Selon les chercheurs, ils ont reçu plus de 170 000 réponses à son test, dont la plupart ont afflué au cours de la semaine dernière, à la suite d'un reportage de la BBC sur le projet.
Le MIT a exploré d'autres projets qui intègrent le côté obscur des données et de l'apprentissage automatique. En 2016, certains des mêmes chercheurs normands ont lancé "Nightmare Machine", qui a utilisé l'apprentissage en profondeur pour transformer des visages à partir d'images ou de lieux pour donner l'impression qu'ils sortent d'un film d'horreur. Le but était de voir si les machines pouvaient apprendre à effrayer les gens.
Le MIT a également exploré les données comme outil d'empathie. En 2017, des chercheurs ont créé un outil d'IA appelé Deep Empathy pour aider les gens à mieux se rapporter aux victimes de catastrophes. Il a utilisé la technologie pour simuler visuellement à quoi cela ressemblerait si la même catastrophe frappait votre ville natale.