Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 569

Incidents associés

Incident 3624 Rapports
Picture of Woman on Side of Bus Shamed for Jaywalking

Loading...
2018 en revue : 10 échecs de l'IA
medium.com · 2018

En décembre dernier, Synced a compilé son premier récapitulatif des "échecs de l'intelligence artificielle" des gaffes de l'IA de l'année précédente. L'IA a réalisé des progrès remarquables et de nombreux scientifiques rêvent de créer l'algorithme maître proposé par Pedro Domingos - qui peut résoudre tous les problèmes envisagés par les humains. Il est cependant inévitable que les chercheurs, les technologies naissantes et les données biaisées produiront également des erreurs non envisagées par les humains.

C'est pourquoi un examen des échecs de l'IA est nécessaire et significatif : le but de l'article n'est pas de minimiser ou de se moquer des résultats de la recherche et du développement, mais d'examiner ce qui n'a pas fonctionné dans l'espoir que nous pourrons faire mieux la prochaine fois.

Synchronisation de 10 échecs d'IA de 2018.

Le visage d'un milliardaire chinois identifié comme jaywalker

La police de la circulation dans les grandes villes chinoises utilise l'IA pour lutter contre le jaywalking. Ils déploient des caméras intelligentes utilisant des techniques de reconnaissance faciale aux intersections pour détecter et identifier les piétons, dont les noms et les visages partiellement masqués apparaissent ensuite sur un écran d'affichage public.

Le système d'intelligence artificielle de la ville portuaire méridionale de Ningbo s'est cependant récemment embarrassé lorsqu'il a faussement "reconnu" une photo du milliardaire chinois Mingzhu Dong sur une publicité sur un bus qui passait comme un jaywalker. L'erreur est devenue virale sur les réseaux sociaux chinois et la police de Ningbo s'est excusée. Dong était imperturbable, publiant sur Weibo: «C'est une question triviale. Voyager en toute sécurité est plus important.

Le chercheur en apprentissage profond de CloudWalk, Xiang Zhou, a déclaré à Synced que le manque de détection en direct de l'algorithme était le problème probable. "La détection en direct à cette distance est difficile, reconnaître une image comme une personne réelle est assez courant maintenant."

Le visage du milliardaire chinois Mingzhu Dong sur un écran public.

Une voiture autonome Uber tue un piéton

Lors du premier décès connu de piéton lié à un véhicule autonome sur une voie publique, un SUV autonome Uber a heurté et tué une piétonne le 28 mars à Tempe, en Arizona. Le véhicule Uber était en mode autonome, avec un conducteur de sécurité humaine au volant.

Alors, qu'est-ce-qu'il s'est passé? Uber a découvert que son logiciel de conduite autonome avait décidé de ne prendre aucune mesure après que les capteurs de la voiture avaient détecté le piéton. Le mode autonome d'Uber désactive le système de freinage d'urgence automatique installé en usine de Volvo, selon le rapport préliminaire du US National Transportation Safety Board sur l'accident.

À la suite de la tragédie, Uber a suspendu les tests de conduite autonome dans les villes nord-américaines, et Nvidia et Toyota ont également arrêté leurs tests routiers de conduite autonome aux États-Unis. Huit mois après l'accident, Uber a annoncé son intention de reprendre les essais routiers d'auto-conduite à Pittsburgh, bien que l'avenir de l'entreprise en matière d'auto-conduite reste incertain.

Capture d'écran ABC 15 de l'accident mortel d'Uber.

IBM Watson est à la traîne dans le domaine de la santé

"Ce produit est une merde", a écrit un médecin de l'hôpital Jupiter de Floride à propos du programme phare d'IA d'IBM, Watson, selon des documents internes obtenus par Stat. À l'origine une machine à questions-réponses, IBM a exploré les capacités d'IA de Watson dans un large éventail d'applications et de processus, y compris les soins de santé. En 2013, IBM a développé la première application commerciale de Watson pour la recommandation de traitement contre le cancer, et la société a conclu un certain nombre de partenariats clés avec des hôpitaux et des centres de recherche au cours des cinq dernières années. Mais Watson AI Health n'a pas impressionné les médecins. Certains se sont plaints qu'il donnait de mauvaises recommandations sur les traitements contre le cancer qui pourraient avoir des conséquences graves, voire mortelles.

Après avoir passé des années sur le projet sans progrès significatifs, IBM aurait réduit les effectifs de Watson Health et licencié plus de la moitié du personnel de la division.

L'outil de recrutement d'Amazon AI est sexiste

Amazon HR aurait utilisé un logiciel de recrutement basé sur l'IA entre 2014 et 2017 pour aider à examiner les CV et faire des recommandations. Le logiciel s'est cependant avéré plus favorable aux candidats masculins car son modèle a été formé sur les CV soumis à Amazon au cours de la dernière décennie, lorsque de nombreux autres candidats masculins ont été embauchés.

Le logiciel aurait rétrogradé les CV contenant le mot "femmes" ou laissant entendre que la candidate était une femme, par exemple parce qu'elle avait fréquenté une université pour femmes. Amazon a depuis abandonné le logiciel. L'entreprise n'a pas nié avoir utilisé l'outil pour produire des recommandations, mais a déclaré qu'il n'avait jamais été utilisé pour évaluer les candidats.

DeepFakes révèle le côté inconvenant de l'IA

En décembre dernier, plusieurs vidéos porno sont apparues sur Reddit "mettant en vedette" les meilleures célébrités féminines internationales. L'utilisateur "DeepFakes" a utilisé des réseaux antagonistes génératifs pour échanger les visages des célébrités avec ceux des stars du porno. Alors que la technologie d'échange de visage est en cours de développement depuis des années, la méthode de DeepFakes a montré que toute personne possédant suffisamment d'images faciales pouvait désormais produire ses propres fausses vidéos très convaincantes.

De fausses vidéos d'apparence réaliste de personnes bien connues ont inondé Internet jusqu'en 2018. Bien que la méthode ne soit pas techniquement un « échec », ses dangers potentiels sont sérieux et de grande envergure : si les preuves vidéo ne sont plus crédibles, cela pourrait encore enc

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd