Incidents associés

Partager
La science-fiction nous a donné de nombreux A.I. malveillants emblématiques. personnages. Cependant, ce sont souvent des personnages comme le T-800 de Terminator ou Alien’s Ash qui commettent un meurtre sans émotion pour poursuivre un objectif final. Ceux qui présentent un comportement paranoïaque plus déséquilibré, comme HAL 9000 de 2001: A Space Odyssey, le font souvent à cause d'un défaut dans leur programmation, plutôt que par leur conception.
C'est ce qui rend le projet "Norman" du MIT si intrigant. Nommé d'après Norman Bates de Psycho, il s'agit d'une intelligence artificielle nouvellement créée présentée comme la "première IA psychopathe au monde". Montré des tests de taches d'encre générés aléatoirement, il offre des interprétations troublantes comme "l'homme abattu devant sa femme hurlante" ou "l'homme est entraîné dans une machine à pâte". Qu'est-ce qui lui a donné cette terrible vision du monde ? Accès à Reddit, bien sûr.
Norman a été formé sur les légendes d'images du tristement célèbre subreddit r/watchpeopledie, dédié à la documentation de cas réels de décès. En raison de soucis éthiques et techniques, ainsi que du contenu graphique des vidéos qu'il contient, l'A.I. n'a reçu que des légendes décrivant les images. Cependant, comme il n'a observé que des légendes d'image horrifiantes, il voit la mort dans n'importe quelle image suivante qu'il regarde. Pensez-y un peu comme si vous disiez que, pour quelqu'un avec un marteau, chaque problème ressemble à un clou. Sauf qu'au lieu de clous, on voit des gens battus à mort avec des marteaux.
Si vous vous demandez pourquoi diable cela serait proche d'une bonne idée, c'est parce que cela vise à illustrer un problème concernant des ensembles de données biaisés. Essentiellement, l'idée est que l'apprentissage automatique fonctionne en analysant de vastes quantités de données. Nourrissez-le de données biaisées et vous obtenez des algorithmes qui crachent les mauvaises réponses – qu'il s'agisse de résultats systématiquement racistes ou, eh bien, de ce genre de choses.
"Notre groupe publie actuellement un nouveau projet pour lutter contre les préjugés et la discrimination basés sur l'apprentissage automatique", ont déclaré les chercheurs à Digital Trends.
Dans une autre direction de recherche future possible, ils sont intéressés à étendre l'aspect des taches d'encre du projet pour utiliser l'exploration de données pour voir s'il y a une explication à la raison pour laquelle les gens voient différentes choses dans les tests de taches d'encre. Jusqu'à présent, ils ont recueilli plus de 200 000 réponses d'utilisateurs. "Nous espérons analyser ces données pour voir quel type de clusters ces réponses créent", ont-ils déclaré. "Par exemple, y a-t-il des groupes spécifiques de personnes qui réagissent aux taches d'encre assez différemment des autres?" (Et ces personnes sont-elles par hasard des visiteurs réguliers de r/watchpeopledie, tout comme Norman ?)
Pour être honnête, nous sommes simplement soulagés d'apprendre qu'aucun d'entre eux ne prévoit d'appliquer l'une des leçons de Norman pour, par exemple, rendre la prochaine génération de Roomba plus efficace. Un aspirateur meurtrier semble être une très mauvaise idée !