Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 720

Incidents associés

Incident 4127 Rapports
All Image Captions Produced are Violent

Loading...
Des scientifiques du MIT dévoilent la première IA psychopathe, "Norman"
rollingstone.com · 2018

Des scientifiques du Massachusetts Institute of Technology ont dévoilé le premier algorithme d'intelligence artificielle formé pour être un psychopathe. L'IA a été à juste titre surnommée "Norman" d'après Norman Bates, le tueur notoire dans Psycho d'Alfred Hitchcock.

Les scientifiques du MIT Pinar Yanardag, Manuel Cebrian et Iyad Rahwan ont formé Norman pour effectuer le sous-titrage d'images, "une méthode d'apprentissage en profondeur" qui permet à l'IA de générer des descriptions textuelles pour les images. Cependant, l'équipe a exclusivement exposé Norman à des images violentes et dérangeantes postées sur un subreddit dédié à la mort.

Ils ont ensuite soumis à Norman un test de tache d'encre de Rorschach et l'IA a répondu avec des interprétations effrayantes telles que « un homme est électrocuté et attrapé à mort », « une femme enceinte tombe à la construction » et « un homme est abattu devant sa femme qui hurle ». Pendant ce temps, une IA standard a répondu aux mêmes taches d'encre avec "un gros plan d'un vase avec des fleurs", "un couple de personnes debout l'une à côté de l'autre" et "une personne tient un parapluie en l'air".

Alors que Norman peut évoquer des images dystopiques de robots tueurs, l'équipe du MIT a déclaré que le but de l'expérience était de prouver que les algorithmes d'IA ne sont pas intrinsèquement biaisés, mais que les méthodes de saisie de données – et les personnes qui saisissent ces données – peuvent modifier de manière significative le comportement d'une IA. . Comme l'a souligné Newsweek, il y a eu plusieurs cas notables où le racisme et les préjugés se sont glissés dans l'apprentissage automatique, comme l'algorithme de reconnaissance d'images de Google Photos qui classait les Noirs comme des « gorilles ».

"Ainsi, lorsque les gens disent que les algorithmes d'IA peuvent être biaisés et injustes, le coupable n'est souvent pas l'algorithme lui-même, mais les données biaisées qui lui ont été transmises", a déclaré l'équipe Norman. "La même méthode peut voir des choses très différentes dans une image, même des choses "malsaines", si elle est entraînée sur le mauvais (ou le bon !) ensemble de données."

Cependant, les algorithmes d'IA peuvent désapprendre les biais. L'équipe du MIT a mis en place un site Web où les gens peuvent saisir des interprétations plus gaies des taches d'encre de Rorschach pour calmer l'état d'esprit macabre de Norman.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd