Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 654

Incidents associés

Incident 3811 Rapports
Game AI System Produces Imbalanced Game

Loading...
Top 10 des échecs de l'IA en 2016
techrepublic.com · 2016

Les développements récents dans les voitures sans conducteur, la reconnaissance vocale et l'apprentissage en profondeur montrent tout ce que les machines peuvent faire. Mais l'IA nous a également fait défaut en 2016, et voici quelques-uns des plus grands exemples.

Vidéo : Les chatbots démystifiés : la vérité derrière le battage médiatique Si vous utilisez la technologie moderne, vous avez probablement utilisé un chatbot et vous avez probablement rencontré ses défauts. Quelle est la réalité derrière la tendance chatbot ?

L'IA a connu une renaissance au cours de la dernière année, avec des développements dans la technologie des véhicules sans conducteur, la reconnaissance vocale et la maîtrise du jeu "Go", révélant à quel point les machines sont capables.

Mais avec tous les succès de l'IA, il est également important de prêter attention au moment et à la manière dont cela peut mal tourner, afin d'éviter de futures erreurs. Un article récent de Roman Yampolskiy, directeur du Cybersecurity Lab de l'Université de Louisville, décrit une histoire d'échecs de l'IA qui sont "directement liés aux erreurs produites par l'intelligence que ces systèmes sont censés présenter". Selon Yampolskiy, ces types d'échecs peuvent être attribués à des erreurs lors de la phase d'apprentissage ou à des erreurs lors de la phase de performance du système d'IA.

Voici le top 10 des échecs d'IA de TechRepublic en 2016, tiré de la liste de Yampolskiy ainsi que de la contribution de plusieurs autres experts en IA.

  1. L'IA conçue pour prédire les crimes futurs était raciste

La société Northpointe a construit un système d'intelligence artificielle conçu pour prédire les chances d'un contrevenant présumé de commettre à nouveau un crime. L'algorithme, appelé "Minority Report-esque" par Gawker (une référence à la nouvelle dystopique et au film basé sur le travail de Philip K. Dick), a été accusé de se livrer à des préjugés raciaux, car les délinquants noirs étaient plus susceptibles d'être marqués. comme étant plus à risque de commettre un crime futur que ceux des autres races. Un autre média, ProPublica, a constaté que le logiciel de Northpointe n'était pas un "prédicteur efficace en général, quelle que soit la race".

  1. Les personnages non-joueurs dans un jeu vidéo ont fabriqué des armes au-delà des plans du créateur

En juin, un jeu vidéo alimenté par l'IA appelé Elite: Dangerous a présenté quelque chose que les créateurs n'avaient jamais voulu : l'IA avait la capacité de créer des super-armes qui dépassaient le cadre de la conception du jeu. Selon un site Web de jeux, "[p]layers seraient entraînés dans des combats contre des navires armés d'armes ridicules qui les réduiraient en pièces". Les armes ont ensuite été retirées des développeurs du jeu.

  1. Un robot a blessé un enfant

Un soi-disant "robot de lutte contre le crime", créé par la plateforme Knightscope, a percuté un enfant dans un centre commercial de la Silicon Valley en juillet, blessant le garçon de 16 mois. Le Los Angeles Times a cité la société comme ayant déclaré que l'incident était un "accident bizarre".

  1. Décès en mode Tesla Autopilot

Comme indiqué précédemment par TechRepublic, Joshua Brown conduisait une Tesla en mode pilote automatique lorsque son véhicule est entré en collision avec un semi-remorque sur une autoroute de Floride, lors du premier décès signalé de la fonctionnalité. Depuis l'accident, Telsa a annoncé des mises à jour majeures de son logiciel Autopilot, qui, selon Elon Musk, auraient empêché cette collision. Il y a eu d'autres décès liés au pilote automatique, dont un en Chine, bien qu'aucun ne puisse être directement lié à une défaillance du système d'IA.

  1. Le chatbot de Microsoft, Tay, prononce des insultes racistes, sexistes et homophobes

Dans une tentative de nouer des relations avec des clients plus jeunes, Microsoft a lancé un chatbot alimenté par l'IA appelé "Tay.ai" sur Twitter au printemps dernier. "Tay", modelée autour d'une adolescente, s'est transformée en, eh bien, un "troll épris d'Hitler et dénigrant les féministes" – un jour seulement après ses débuts en ligne. Microsoft a retiré Tay de la plate-forme de médias sociaux et a annoncé qu'il prévoyait d'apporter des "ajustements" à son algorithme.

VOIR : Les mégadonnées peuvent révéler des stéréotypes inexacts sur Twitter, selon une étude de l'UPenn (TechRepublic)

  1. Le concours de beauté jugé par l'IA est raciste

Dans "Le premier concours international de beauté jugé par l'intelligence artificielle", un panel de robots a jugé les visages, sur la base "d'algorithmes capables d'évaluer avec précision les critères liés à la perception de la beauté et de la santé humaines", selon le site du concours. Mais en ne fournissant pas à l'IA un ensemble d'entraînement diversifié, les gagnants du concours étaient tous blancs. Comme l'a dit Yampolskiy, "La beauté est dans le système de reconnaissance de formes".

  1. Pokémon Go garde les joueurs dans les quartiers blancs

Après la sortie du très populaire Pokémon Go en juillet, plusieurs utilisateurs ont noté qu'il y avait moins d'emplacements Pokémon dans des quartiers principalement noirs. Selon Anu Tewary, responsable des données pour Mint chez Intuit, c'est parce que les créateurs des algorithmes n'ont pas réussi à fournir un ensemble de formation diversifié et n'ont pas passé de temps dans ces quartiers.

  1. L'IA de Google, AlphaGo, perd le match 4 de Go to Lee Sedol

En mars 2016, l'IA de Google, AlphaGo, a été battue dans le quatrième match d'une série de cinq rounds du jeu Go par Lee Sedol, 18 fois champion du monde du jeu. Et bien que le programme d'IA ait remporté la série, la victoire de Sedol a prouvé que les algorithmes d'IA ne sont pas encore parfaits.

"Lee Sedol a trouvé une faiblesse, semble-t-il, dans la recherche d'arbres à Monte Carlo", a déclaré Toby

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd