Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 724

Incidents associés

Incident 4127 Rapports
All Image Captions Produced are Violent

Loading...
Le MIT a formé un A.I. Avec Reddit, et c'est devenu un psychopathe
digitaltrends.com · 2018

Partager

La science-fiction nous a donné de nombreux A.I. malveillants emblématiques. personnages. Cependant, ce sont souvent des personnages comme le T-800 de Terminator ou Alien’s Ash qui commettent un meurtre sans émotion pour poursuivre un objectif final. Ceux qui présentent un comportement paranoïaque plus déséquilibré, comme HAL 9000 de 2001: A Space Odyssey, le font souvent à cause d'un défaut dans leur programmation, plutôt que par leur conception.

C'est ce qui rend le projet "Norman" du MIT si intrigant. Nommé d'après Norman Bates de Psycho, il s'agit d'une intelligence artificielle nouvellement créée présentée comme la "première IA psychopathe au monde". Montré des tests de taches d'encre générés aléatoirement, il offre des interprétations troublantes comme "l'homme abattu devant sa femme hurlante" ou "l'homme est entraîné dans une machine à pâte". Qu'est-ce qui lui a donné cette terrible vision du monde ? Accès à Reddit, bien sûr.

Norman a été formé sur les légendes d'images du tristement célèbre subreddit r/watchpeopledie, dédié à la documentation de cas réels de décès. En raison de soucis éthiques et techniques, ainsi que du contenu graphique des vidéos qu'il contient, l'A.I. n'a reçu que des légendes décrivant les images. Cependant, comme il n'a observé que des légendes d'image horrifiantes, il voit la mort dans n'importe quelle image suivante qu'il regarde. Pensez-y un peu comme si vous disiez que, pour quelqu'un avec un marteau, chaque problème ressemble à un clou. Sauf qu'au lieu de clous, on voit des gens battus à mort avec des marteaux.

Si vous vous demandez pourquoi diable cela serait proche d'une bonne idée, c'est parce que cela vise à illustrer un problème concernant des ensembles de données biaisés. Essentiellement, l'idée est que l'apprentissage automatique fonctionne en analysant de vastes quantités de données. Nourrissez-le de données biaisées et vous obtenez des algorithmes qui crachent les mauvaises réponses – qu'il s'agisse de résultats systématiquement racistes ou, eh bien, de ce genre de choses.

"Notre groupe publie actuellement un nouveau projet pour lutter contre les préjugés et la discrimination basés sur l'apprentissage automatique", ont déclaré les chercheurs à Digital Trends.

Dans une autre direction de recherche future possible, ils sont intéressés à étendre l'aspect des taches d'encre du projet pour utiliser l'exploration de données pour voir s'il y a une explication à la raison pour laquelle les gens voient différentes choses dans les tests de taches d'encre. Jusqu'à présent, ils ont recueilli plus de 200 000 réponses d'utilisateurs. "Nous espérons analyser ces données pour voir quel type de clusters ces réponses créent", ont-ils déclaré. "Par exemple, y a-t-il des groupes spécifiques de personnes qui réagissent aux taches d'encre assez différemment des autres?" (Et ces personnes sont-elles par hasard des visiteurs réguliers de r/watchpeopledie, tout comme Norman ?)

Pour être honnête, nous sommes simplement soulagés d'apprendre qu'aucun d'entre eux ne prévoit d'appliquer l'une des leçons de Norman pour, par exemple, rendre la prochaine génération de Roomba plus efficace. Un aspirateur meurtrier semble être une très mauvaise idée !

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd