Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 726

Incidents associés

Incident 4127 Rapports
All Image Captions Produced are Violent

Loading...
Rencontrez Norman, la première IA "psychopathe" au monde
zdnet.com · 2018

Norman : l'intelligence artificielle du MIT avec des traits psychopathiques L'expérience est basée sur le test de Rorschach de 1921, qui identifie les traits psychopathiques en fonction de la perception des utilisateurs des taches d'encre.

Des chercheurs du Massachusetts Institute of Technology (MIT) ont développé ce qui est probablement une première mondiale : une intelligence artificielle (IA) « psychopathe ».

L'expérience est basée sur le test de Rorschach de 1921, qui identifie les traits chez les humains considérés comme psychopathiques en fonction de leur perception des taches d'encre, parallèlement à ce que l'on appelle les troubles de la pensée.

Norman est une expérience d'IA née du test et "d'une exposition prolongée aux coins les plus sombres de Reddit", selon le MIT, afin d'explorer comment les ensembles de données et les biais peuvent influencer le comportement et les capacités de prise de décision de l'intelligence artificielle.

TechRepublic : pourquoi la collaboration homme-IA dominera l'avenir du travail

"Lorsque les gens disent que les algorithmes d'IA sont biaisés et injustes, le coupable n'est souvent pas l'algorithme lui-même, mais les données biaisées qui lui ont été transmises", déclarent les chercheurs. "La même méthode peut voir des choses très différentes dans une image, même des choses malades, si elle est entraînée sur le mauvais (ou le bon !) ensemble de données."

Voir aussi: MIT lance MIT IQ, vise à stimuler les percées humaines et artificielles et à renforcer la collaboration

Norman est un système d'intelligence artificielle formé pour effectuer le sous-titrage d'images, dans lequel des algorithmes d'apprentissage en profondeur sont utilisés pour générer une description textuelle d'une image.

Cependant, après avoir pillé les profondeurs de Reddit et un sous-reddit sélectionné dédié au contenu graphique débordant d'images de mort et de destruction, les ensembles de données de Norman sont loin de ce à quoi une IA standard serait exposée.

Dans un excellent exemple d'intelligence artificielle qui a mal tourné, le MIT a effectué les tests de taches d'encre de Rorschach sur Norman, avec un réseau neuronal de sous-titrage d'image standard utilisé comme sujet de contrôle à des fins de comparaison.

Les résultats sont pour le moins inquiétants.

Dans un test de taches d'encre, une IA standard a vu "une photo en noir et blanc d'un parapluie rouge et blanc", tandis que Norman a vu "un homme se faire électrocuter en tentant de traverser une rue animée".

Dans un autre, l'IA de contrôle a décrit la tache d'encre comme "une photo en noir et blanc d'un petit oiseau", Norman a décrit l'image comme "l'homme est entraîné dans une machine à pâte".

MIT

MIT

En raison de préoccupations éthiques, le MIT n'a introduit que des biais en ce qui concerne les légendes d'images du subreddit qui sont ensuite associées à des taches d'encre générées de manière aléatoire. En d'autres termes, les chercheurs n'ont pas utilisé de vraies images de personnes mourant au cours de l'expérience.

CNET : Le nouveau conseil d'éthique de l'IA à Singapour donnera des conseils avisés

L'expérience normande est une application intéressante de l'IA qui met en évidence le besoin d'ensembles de données appropriés lors de la formation de systèmes d'intelligence artificielle et de réseaux de neurones.

Sans les bons ensembles de données fournissant une base stable pour la formation à l'IA, vous ne pouvez pas vous fier aux décisions prises par une IA, ni à sa perception du monde.

Couverture précédente et connexe

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd