AI Incident Roundup – décembre ‘22
Bienvenue dans l'édition de ce mois-ci de The Monthly Roundup, une newsletter conçue pour vous donner un récapitulatif digeste des derniers incidents et rapports de la base de données des incidents AI.
Temps de lecture estimé : 5 minutes
🗞️ Nouveaux incidents
Incidents émergents survenus le mois dernier :
Incident n° 416 : L'algorithme d'annonces d'emploi de Facebook aurait été biaisé contre les travailleurs âgés et les femmes
- Qu'est-il arrivé? L'algorithme de Facebook a été allégué dans une plainte de Real Women in Trucking avoir diffusé sélectivement des offres d'emploi de manière disproportionnée contre les travailleurs âgés et les femmes en faveur des hommes plus jeunes pour les postes de cols bleus.
Incident #419 : La modération automatisée de Facebook a autorisé la publication d'annonces menaçant les travailleurs électoraux
- Qu'est-il arrivé? Le système de modération automatisé de Facebook n'a pas réussi à signaler et a autorisé la publication de publicités contenant un langage violent explicite contre les travailleurs électoraux.
Incident n° 430 : Les avocats se sont vu refuser l'accès au lieu de représentation par reconnaissance faciale
- Qu'est-il arrivé? Les avocats se sont vu interdire l'accès au Madison Square Garden après qu'un système de reconnaissance faciale les ait mis en correspondance avec un cabinet d'avocats actuellement engagé dans un litige avec le lieu .
Incident #432 : Le résolveur de planification des équipages de Southwest Airlines dégénère le réseau de vols
- Qu'est-il arrivé? Southwest Airlines a laissé des passagers bloqués pendant des jours sur tout le réseau de vols lorsque le logiciel de planification des équipages de Southwest développé par General Electric a échoué à plusieurs reprises à se remettre des annulations de vols dues aux conditions météorologiques.
📎 Nouveaux développements
Incidents plus anciens qui ont de nouveaux rapports ou mises à jour.
Incident d'origine | Nouveau(x) rapport(s) |
---|---|
Incident #279: L'algorithme "Pour vous" de TikTok a exposé les jeunes utilisateurs à du contenu pro-trouble de l'alimentation |
|
Incident #413Des milliers de réponses incorrectes produites par ChatGPT publiées sur Stack Overflow |
|
Incident #418Uber a bloqué les comptes des chauffeurs indiens en raison d'échecs de la reconnaissance faciale |
|
Incident #420Les utilisateurs contournent facilement les filtres de contenu de ChatGPT d'OpenAI |
|
Incident #421Une diffusion stable aurait utilisé des œuvres d'artistes sans autorisation pour la formation en IA |
|
Incident #423Lensa AI a produit des « avatars magiques » sexuellement explicites ou suggestifs involontaires pour les femmes |
|
Incident #424Les outils de surveillance de l'IA des universités auraient dépassé le seuil légal du Canada en matière de consentement |
|
Incident #425State Farm aurait fait l'objet de discrimination à l'égard des clients noirs lors du paiement des réclamations |
|
Incident #427Le freinage soudain des taxis de croisière aurait mis les gens en danger |
|
Incident #431Des voleurs ont accédé aux comptes bancaires d'hommes homosexuels drogués grâce à la reconnaissance faciale de leur téléphone |
|
Incident #434Le freinage soudain par le pilote automatique de Tesla aurait provoqué une collision de huit voitures |
|
🗄 Extrait des Archives
À chaque édition, nous présentons un ou plusieurs incidents historiques qui suscitent la réflexion.
Les annulations massives de vols de Southwest Airlines ont mis en évidence à quel point les conditions météorologiques extrêmes peuvent perturber le fonctionnement des systèmes intelligents. Les exemples suivants de la base de données d'incidents AI montrent que ce n'est pas la première fois que la météo interfère avec les systèmes intelligents.
Fin décembre 2021, Google Maps a dirigé les conducteurs de la région de la Sierra Nevada vers des routes fermées et même dangereuses au milieu de chutes de neige record (Incident #155), alors que dans Février 2019 Apple Maps aurait dirigé un couple lors d'un voyage de ski dans les montagnes vers un itinéraire non conventionnel où les conducteurs se sont retrouvés coincés sur une route non goudronnée dans la neige (Incident #288). Les voitures autonomes ont également eu des difficultés à naviguer dans la neige, comme cela a été démontré en février 2016 lorsque l'un des véhicules autonomes de Volvo a été victime d'une cécité des capteurs, ce qui a soulevé des inquiétudes quant aux problèmes futurs des voitures autonomes dans les régions enneigées (Incident #70).
L'histoire a montré que des circonstances rares et imprévisibles défient les systèmes intelligents, et la météo continuera de surprendre les humains et de casser leurs systèmes informatiques.
👇 plonger plus profondément
-
Tous les nouveaux incidents ajoutés à la base de données au cours du dernier mois, regroupés par sujet:
- Confidentialité et surveillance: #424, #425, #433
- Reconnaissance faciale: #412, #418, #430, #431
- Biais et discrimination: #429
- Médias sociaux: #414, #415, #416, #417, #419
- GPT: #413, #420
- Erreurs percutantes: #428, #432
- Véhicules autonomes: #426, #427, #434
- AI Généré des images et DeepFakes: #421, #422, #423
-
Explorez des grappes d'incidents similaires dans la visualisation spatiale
-
Consultez Table View pour une vue complète de tous les incidents
-
Renseignez-vous sur les développeurs, les déploieurs et les parties préjudiques dans page des entités
🦾 Soutenez nos efforts
Toujours en train de lire ? Aidez-nous à changer le monde pour le mieux !
- Partagez cette newsletter sur LinkedIn, Twitter et Facebook
- Soumettre incidents à la base de données
- Contribuer aux fonctionnalités de la base de données