Incidents associés
Norman : l'intelligence artificielle du MIT avec des traits psychopathiques L'expérience est basée sur le test de Rorschach de 1921, qui identifie les traits psychopathiques en fonction de la perception des utilisateurs des taches d'encre.
Des chercheurs du Massachusetts Institute of Technology (MIT) ont développé ce qui est probablement une première mondiale : une intelligence artificielle (IA) « psychopathe ».
L'expérience est basée sur le test de Rorschach de 1921, qui identifie les traits chez les humains considérés comme psychopathiques en fonction de leur perception des taches d'encre, parallèlement à ce que l'on appelle les troubles de la pensée.
Norman est une expérience d'IA née du test et "d'une exposition prolongée aux coins les plus sombres de Reddit", selon le MIT, afin d'explorer comment les ensembles de données et les biais peuvent influencer le comportement et les capacités de prise de décision de l'intelligence artificielle.
TechRepublic : pourquoi la collaboration homme-IA dominera l'avenir du travail
"Lorsque les gens disent que les algorithmes d'IA sont biaisés et injustes, le coupable n'est souvent pas l'algorithme lui-même, mais les données biaisées qui lui ont été transmises", déclarent les chercheurs. "La même méthode peut voir des choses très différentes dans une image, même des choses malades, si elle est entraînée sur le mauvais (ou le bon !) ensemble de données."
Voir aussi: MIT lance MIT IQ, vise à stimuler les percées humaines et artificielles et à renforcer la collaboration
Norman est un système d'intelligence artificielle formé pour effectuer le sous-titrage d'images, dans lequel des algorithmes d'apprentissage en profondeur sont utilisés pour générer une description textuelle d'une image.
Cependant, après avoir pillé les profondeurs de Reddit et un sous-reddit sélectionné dédié au contenu graphique débordant d'images de mort et de destruction, les ensembles de données de Norman sont loin de ce à quoi une IA standard serait exposée.
Dans un excellent exemple d'intelligence artificielle qui a mal tourné, le MIT a effectué les tests de taches d'encre de Rorschach sur Norman, avec un réseau neuronal de sous-titrage d'image standard utilisé comme sujet de contrôle à des fins de comparaison.
Les résultats sont pour le moins inquiétants.
Dans un test de taches d'encre, une IA standard a vu "une photo en noir et blanc d'un parapluie rouge et blanc", tandis que Norman a vu "un homme se faire électrocuter en tentant de traverser une rue animée".
Dans un autre, l'IA de contrôle a décrit la tache d'encre comme "une photo en noir et blanc d'un petit oiseau", Norman a décrit l'image comme "l'homme est entraîné dans une machine à pâte".
MIT
MIT
En raison de préoccupations éthiques, le MIT n'a introduit que des biais en ce qui concerne les légendes d'images du subreddit qui sont ensuite associées à des taches d'encre générées de manière aléatoire. En d'autres termes, les chercheurs n'ont pas utilisé de vraies images de personnes mourant au cours de l'expérience.
CNET : Le nouveau conseil d'éthique de l'IA à Singapour donnera des conseils avisés
L'expérience normande est une application intéressante de l'IA qui met en évidence le besoin d'ensembles de données appropriés lors de la formation de systèmes d'intelligence artificielle et de réseaux de neurones.
Sans les bons ensembles de données fournissant une base stable pour la formation à l'IA, vous ne pouvez pas vous fier aux décisions prises par une IA, ni à sa perception du monde.
Couverture précédente et connexe