Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 746

Incidents associés

Incident 4127 Rapports
All Image Captions Produced are Violent

Loading...
Des scientifiques du MIT ont créé un "psychopathe" alimenté par l'IA nommé Norman
money.cnn.com · 2018

Norman voit toujours le pire dans les choses.

C'est parce que Norman est un "psychopathe" alimenté par l'intelligence artificielle et développé par le MIT Media Lab.

Norman est un algorithme destiné à montrer à quel point les données derrière l'IA sont importantes.

Les chercheurs du MIT disent avoir formé Norman en utilisant les légendes écrites décrivant des images graphiques et des vidéos sur la mort publiées sur les "coins les plus sombres de Reddit", une plate-forme de messagerie populaire.

L'équipe a ensuite examiné les réponses de Norman aux taches d'encre utilisées dans un test psychologique de Rorschach. Les réponses de Norman ont été comparées à la réaction d'un autre algorithme qui avait une formation standard. Cet algorithme a vu des fleurs et des gâteaux de mariage dans les taches d'encre. Norman a vu des images d'un homme tué par balle et d'un homme tué par un excès de vitesse.

"Norman n'a observé que des légendes d'image horribles, il voit donc la mort dans n'importe quelle image qu'il regarde", ont déclaré les chercheurs du MIT derrière Norman à CNNMoney.

En relation: Amazon a demandé de cesser de vendre la technologie de reconnaissance faciale à la police

Nommé d'après le personnage principal de "Psycho" d'Alfred Hitchcock, Norman "représente une étude de cas sur les dangers de l'intelligence artificielle qui tourne mal lorsque des données biaisées sont utilisées dans des algorithmes d'apprentissage automatique", selon le MIT.

Nous avons déjà vu des exemples de la façon dont l'IA est aussi bonne que les données dont elle tire des enseignements. En 2016, Microsoft (MSFT) a lancé Tay, un chat bot Twitter. À l'époque, une porte-parole de Microsoft a déclaré que Tay était une expérience sociale, culturelle et technique. Mais les utilisateurs de Twitter ont poussé le bot à dire des choses racistes et inappropriées, et cela a fonctionné. Alors que les gens discutaient avec Tay, le bot a repris le langage des utilisateurs. Microsoft a finalement mis le bot hors ligne.

L'équipe du MIT pense qu'il sera possible pour Norman de recycler sa façon de penser en apprenant de la rétroaction humaine. Les humains peuvent passer le même test de tache d'encre pour ajouter leurs réponses au pool de données.

Selon les chercheurs, ils ont reçu plus de 170 000 réponses à son test, dont la plupart ont afflué au cours de la semaine dernière, à la suite d'un reportage de la BBC sur le projet.

Le MIT a exploré d'autres projets qui intègrent le côté obscur des données et de l'apprentissage automatique. En 2016, certains des mêmes chercheurs normands ont lancé "Nightmare Machine", qui a utilisé l'apprentissage en profondeur pour transformer des visages à partir d'images ou de lieux pour donner l'impression qu'ils sortent d'un film d'horreur. Le but était de voir si les machines pouvaient apprendre à effrayer les gens.

Le MIT a également exploré les données comme outil d'empathie. En 2017, des chercheurs ont créé un outil d'IA appelé Deep Empathy pour aider les gens à mieux se rapporter aux victimes de catastrophes. Il a utilisé la technologie pour simuler visuellement à quoi cela ressemblerait si la même catastrophe frappait votre ville natale.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd