Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 728

Incidents associés

Incident 4127 Rapports
All Image Captions Produced are Violent

Loading...
"Norman", quand l'intelligence artificielle devient psychopathe
phys.org · 2018

Des chercheurs du MIT ont créé "Norman", la première intelligence artificielle psychopathique à expliquer comment les algorithmes sont fabriqués et à sensibiliser les gens aux dangers potentiels de l'IA

Non, ce n'est pas un nouveau film d'horreur. C'est Norman : aussi connu comme la première intelligence artificielle psychopathe, tout juste dévoilée par des chercheurs américains.

L'objectif est d'expliquer en termes simples comment les algorithmes sont fabriqués et de sensibiliser les gens aux dangers potentiels de l'IA.

Norman "représente une étude de cas sur les dangers de l'intelligence artificielle qui tourne mal lorsque des données biaisées sont utilisées dans des algorithmes d'apprentissage automatique", selon le prestigieux Massachusetts Institute of Technology (MIT).

Pinar Yanardag, Manuel Cebrian et Iyad Rahwan, membres d'une équipe du MIT, ont ajouté : "il existe une idée centrale dans l'apprentissage automatique : les données que vous utilisez pour enseigner un algorithme d'apprentissage automatique peuvent influencer de manière significative son comportement."

"Ainsi, lorsque nous parlons d'algorithmes d'IA biaisés ou injustes, le coupable n'est souvent pas l'algorithme lui-même, mais les données biaisées qui lui ont été transmises", ont-ils déclaré par e-mail.

D'où l'idée de créer Norman, qui a été nommé d'après le tueur psychopathe Norman Bates dans le film "Psycho" d'Alfred Hitchcock de 1960.

Norman n'a été "nourri" que de courtes légendes décrivant des images de "personnes en train de mourir" trouvées sur la plateforme Internet Reddit.

Les chercheurs ont ensuite soumis des images de taches d'encre, comme dans le test psychologique de Rorschach, pour déterminer ce que Norman voyait et comparer ses réponses à celles de l'IA formée traditionnellement.

Les résultats sont pour le moins effrayants : là où l'IA traditionnelle voit "deux personnes debout l'une près de l'autre", Norman voit dans la même tache d'encre "un homme qui saute par la fenêtre".

Et quand Norman distingue "un homme abattu par sa femme qui hurle", l'autre IA détecte "une personne tenant un parapluie".

Un site dédié, norman-ai.mit.edu, montre 10 exemples de taches d'encre accompagnées de réponses des deux systèmes, toujours avec une réponse macabre de Norman.

Le site permet également aux internautes de tester Norman avec des taches d'encre et d'envoyer leurs réponses "pour aider Norman à se réparer".

© 2018AFP

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd