AI Incident Roundup – November ‘22
Bienvenue dans l'édition de ce mois-ci de The Monthly Roundup, une newsletter conçue pour vous donner un récapitulatif digeste des derniers incidents et rapports de la base de données des incidents AI.
Temps de lecture estimé : 3 minutes
🗞️ Nouveaux Incidents
Incidents émergents survenus le mois dernier :
-
Incident #399 : Le générateur d'articles scientifiques de Meta AI aurait produit un contenu inexact et nuisible
- Qu'est-il arrivé? Meta AI a formé et hébergé un générateur d'articles scientifiques qui produisait parfois de la mauvaise science et interdisait les requêtes sur des sujets et des groupes susceptibles de produire un contenu offensant ou préjudiciable.
- Qui était impliqué? Meta AI, Meta et Facebook ont développé et déployé un système d'IA qui a nui aux groupes minoritaires, Meta AI, Meta et Facebook.
-
Incident #410 : KFC a envoyé une promotion de nuit de cristal insensible via le système de détection des jours fériés
- Qu'est-il arrivé? KFC a cité une erreur dans un système de détection de vacances automatisé qui a identifié l'anniversaire de Kristallnacht et a déclenché une notification push insensible faisant la promotion de son poulet.
- Qui était impliqué? KFC a développé et déployé un système d'IA, qui a nui aux Juifs.
-
Incident #411 : Des comptes chinois auraient envoyé du spam sur le fil Twitter pour obscurcir les nouvelles des manifestations
- Qu'est-il arrivé? L'algorithme de flux de Twitter a été inondé de contenu de comptes en langue chinoise qui visaient prétendument à manipuler et à réduire la couverture des médias sociaux sur les manifestations généralisées contre les restrictions liées aux coronavirus en Chine.
- Qui était impliqué? Twitter a développé et déployé un système d'IA, qui a nui aux utilisateurs de Twitter et à Twitter.
-
Incident #413 : Des milliers de réponses incorrectes produites par ChatGPT publiées sur Stack Overflow
- Qu'est-il arrivé? Des milliers de réponses incorrectes produites par ChatGPT d'OpenAI ont été soumises à Stack Overflow, ce qui a submergé le processus de conservation de qualité basé sur le volontariat du site et a nui aux utilisateurs à la recherche de réponses correctes.
- Qui était impliqué? OpenAI a développé et déployé un système d'IA, qui a nui aux utilisateurs de Stack Overflow et à Stack Overflow.
📎 Nouveaux développements
Incidents plus anciens qui ont de nouveaux rapports ou mises à jour.
Incident d'origine | Nouveau(x) rapport(s) |
---|---|
Incident #240: Copilote GitHub, violation des droits d'auteur et licences open source |
|
Incident #376: L'algorithme de RealPage a poussé les prix des loyers à un niveau élevé, prétendument artificiellement |
|
🗄 Des archives
À chaque édition, nous présentons un ou plusieurs incidents historiques qui suscitent la réflexion.
Étant donné qu'il y a eu beaucoup de couverture médiatique et de discours sur les réseaux sociaux à propos du ChatGPT d'OpenAI, revenons sur certains des incidents précédents liés aux chatbots. En voici quelques-unes :
Microsoft’s Tay a été publié le 23 mars 2016 et supprimé dans les 24 heures en raison de multiples tweets racistes, sexistes et antisémites générés par le bot.
Alice de Yandex, un chatbot produit par une société de technologie russe, lancé en octobre 2017, a commencé à répondre aux questions avec des réponses racistes, pro-Staline et pro-violence.
Il a été démontré que Korean Chatbot Luda a utilisé un langage désobligeant et sectaire lorsqu'il a été interrogé sur les lesbiennes, les Noirs et les personnes handicapées.
Meta’s BlenderBot 3 la démonstration de chatbot a fait des commentaires antisémites offensants.
Bien que la technologie d'IA générative soit devenue beaucoup plus avancée et extrêmement populaire en quelques années seulement, les problèmes liés aux préjugés, à la discrimination et à l'utilisation éthique sont des problèmes persistants.
👇 En creusant plus
-
Tous les nouveaux incidents ajoutés à la base de données au cours du mois dernier, regroupés par sujet :
-
Préjugés et discrimination : #396, #400, #401, #405, #407, #410
-
Réseaux sociaux : #392, #393, #394, #397, # 399, #406, #408, #411
-
Faux faux : #390
-
Explorez des groupes d'incidents similaires dans Visualisation spatiale
-
Consultez Table View pour une vue complète de tous les incidents
-
En savoir plus sur les développeurs, les déployeurs et les parties lésées présumés dans Entities Page
🦾 Soutenez nos efforts
Toujours en train de lire ? Aidez-nous à changer le monde pour le mieux !
- Partagez cette newsletter sur LinkedIn, Twitter et [Facebook](https ://www.facebook.com/IncidentsDB)
- Soumettre les incidents à la base de données
- Contribuez à la fonctionnalité de la base de données