Incidents associés
Pour certains, l'expression "intelligence artificielle" évoque des visions cauchemardesques - quelque chose du film Will Smith de 2004 I, Robot, peut-être, ou la fin d'Ex Machina - comme une botte qui fracasse la vitre d'un écran d'ordinateur pour tamponner sur un visage humain, pour toujours. Même les personnes qui étudient l'IA ont un respect sain pour l'objectif ultime du domaine, l'intelligence générale artificielle ou un système artificiel qui imite les schémas de pensée humains. L'informaticien Stuart Russell, qui a littéralement écrit le manuel sur l'IA, a passé sa carrière à réfléchir aux problèmes qui surviennent lorsque le concepteur d'une machine la dirige vers un objectif sans se demander si ses valeurs sont totalement alignées sur celles de l'humanité.
Un certain nombre d'organisations ont vu le jour ces dernières années pour lutter contre ce potentiel, notamment OpenAI, un groupe de recherche fondé (puis quitté) par le technomilliardaire Elon Musk pour "construire en toute sécurité [AGI] et garantir que les avantages d'AGI sont aussi distribué aussi largement et uniformément que possible. Que dit-il de l'humanité que nous avons peur de l'intelligence artificielle générale parce qu'elle pourrait nous juger cruels et indignes et donc méritant la destruction ? (Sur son site, Open AI ne semble pas définir ce que signifie "sûr".)
Cette semaine, des chercheurs du MIT ont dévoilé leur dernière création : Norman, une IA perturbée. (Oui, il porte le nom du personnage de Hitchcock’s Psycho.) Ils écrivent :
Norman est une IA qui est formée pour effectuer le sous-titrage d'images, une méthode d'apprentissage en profondeur populaire pour générer une description textuelle d'une image. Nous avons formé Norman sur les légendes d'images d'un subreddit infâme (le nom est expurgé en raison de son contenu graphique) qui se consacre à documenter et à observer la réalité troublante de la mort. Ensuite, nous avons comparé les réponses de Norman avec un réseau neuronal de sous-titrage d'image standard (formé sur l'ensemble de données MSCOCO) sur des taches d'encre de Rorschach ; un test utilisé pour détecter les troubles de la pensée sous-jacents.
Bien qu'il y ait un débat sur la question de savoir si le test de Rorschach est un moyen valable de mesurer l'état psychologique d'une personne, il est indéniable que les réponses de Norman sont effrayantes comme l'enfer. Voir par vous-même.
Le but de l'expérience était de montrer à quel point il est facile de biaiser une intelligence artificielle si vous l'entraînez sur des données biaisées. L'équipe n'a sagement pas spéculé sur la question de savoir si l'exposition au contenu graphique changeait la façon de penser d'un humain. Ils ont également fait d'autres expériences dans la même veine, en utilisant l'IA pour écrire des histoires d'horreur, créer des images terrifiantes, juger des décisions morales et même induire de l'empathie. Ce genre de recherche est important. Nous devrions poser les mêmes questions à l'intelligence artificielle qu'à toute autre technologie, car il est beaucoup trop facile que des conséquences imprévues blessent les personnes pour lesquelles le système n'a pas été conçu. Naturellement, c'est la base de la science-fiction : imaginer des futurs possibles et montrer ce qui pourrait nous y conduire. Issac Asimov a écrit les "Trois lois de la robotique" parce qu'il voulait imaginer ce qui pourrait arriver si elles étaient transgressées.
Même si l'intelligence artificielle n'est pas un domaine nouveau, nous sommes loin, très loin de produire quelque chose qui, comme l'a écrit Gideon Lewis-Kraus dans le New York Times Magazine, peut "démontrer une facilité avec l'implicite, l'interprétatif". Mais il n'a toujours pas subi le genre de calcul qui fait grandir une discipline. La physique, vous vous en souvenez, nous a donné la bombe atomique, et chaque personne qui devient physicienne sait qu'elle pourrait être appelée à aider à créer quelque chose qui pourrait fondamentalement changer le monde. Les informaticiens commencent également à s'en rendre compte. Chez Google cette année, 5 000 employés ont manifesté et une multitude d'employés ont démissionné de l'entreprise en raison de son implication dans le projet Maven, une initiative du Pentagone qui utilise l'apprentissage automatique pour améliorer la précision des frappes de drones.
Norman n'est qu'une expérience de pensée, mais les questions qu'il soulève sur les algorithmes d'apprentissage automatique qui font des jugements et des décisions basés sur des données biaisées sont urgentes et nécessaires. Ces systèmes, par exemple, sont déjà utilisés dans la souscription de crédit, décidant si les prêts valent ou non la peine d'être garantis. Et si un algorithme décidait que vous ne devriez pas acheter de maison ou de voiture ? A qui faites-vous appel ? Et si vous n'êtes pas blanc et qu'un logiciel prédit que vous allez commettre un crime à cause de cela ? Il y a beaucoup, beaucoup de questions ouvertes. Le rôle de Norman est de nous aider à trouver leurs réponses.