AI Incident Roundup – Mars ‘23
Lisez notre bulletin mensuel récapitulant les nouveaux incidents dans la base de données des incidents d'IA et examinant les tendances.
🗄 Tendance dans l'AIID
En mars, le déluge d'incidents liés à Deepfake s'est poursuivi alors que le public appliquait l'IA générative de manière créative et parfois destructrice. Dans un exemple récent, des lycéens ont créé une photo Deepfake d'un directeur faisant des menaces violentes et racistes, semant la peur dans la communauté et portant atteinte à la réputation du directeur.
Une autre tendance est une série de mesures d'application liées à la vie privée, dont plusieurs découlent du règlement général sur la protection des données (RGPD) de l'Union européenne. Récemment, l'Autorité italienne de protection des données a émis une interdiction de ChatGPT ainsi que du Chatbot alimenté par l'IA de Replika en raison d'un manque de mécanismes de vérification de l'âge ainsi que d'autres préoccupations concernant la collecte de données personnelles. Une autre décision de justice récente relative à la vie privée s'est prononcée en faveur des chauffeurs Uber alléguant que la plate-forme violait les droits des chauffeurs en matière de données dans un certain nombre de cas.
Vous connaissez un incident d'IA lié à la confidentialité qui n'est pas couvert par la base de données des incidents d'IA ? Aidez-nous à couvrir le monde des méfaits de l'IA en soumettant vous-même les incidents !
🗞️ Nouveaux incidents
LLM et chatbots
- #498 : GPT-4 se serait fait passer pour une personne aveugle pour convaincre un humain de remplir le CAPTCHA
- #503 : L'outil de recherche Bing AI aurait déclaré des menaces contre les utilisateurs
- #504 : les sorties de Bing Chat présentées dans la vidéo de démonstration contenaient prétendument de fausses informations
Deepfake
- #488 : Voix générées par l'IA utilisées pour les acteurs de la voix Dox
- #492 : Des milliers de parents canadiens se sont fait avoir en utilisant la voix de l'IA de leur fils
- #493 : les vidéos d'utilisateurs de TikTok se sont fait passer pour Andrew Tate à l'aide de la voix de l'IA, provoquant l'interdiction
- #494 : les visages de célébrités féminines présentés dans des publicités à caractère sexuel pour l'application Deepfake
- #495 : des lycéens ont publié une vidéo deepfake mettant en vedette le principal faisant des menaces racistes violentes
- #496 : Un étudiant de première année d'université aurait fabriqué des deepfakes pornographiques en utilisant le visage d'une amie
- #499 : Images parodiques de l'IA de l'arrestation de Donald Trump republiées en tant que désinformation
IA générative
- #490 : Clarkesworld Magazine a fermé les soumissions en raison de l'augmentation massive des histoires générées par l'IA
- #500 : des escrocs en ligne ont incité les gens à envoyer de l'argent en utilisant des images d'IA du tremblement de terre en Turquie
Préjugés et discrimination
- #489 : Les outils d'IA de Workday auraient permis aux employeurs de discriminer les candidats des groupes protégés
- #502 : L'outil de dépistage familial du comté de Pennsylvanie aurait présenté des effets discriminatoires
Autre
- #491 : L'expérience d'IA de Replika aurait manqué de protection pour les mineurs, entraînant une interdiction de données
- #497 : DoNotPay aurait déformé son produit AI "Robot Lawyer"
- #501 : La durée du séjour Un faux diagnostic coupe le paiement de l'assureur pour le traitement d'une femme âgée
👇 Plonger plus profondément
- Explorez des groupes d'incidents similaires dans Visualisation spatiale
- Consultez Table View pour une vue complète de tous les incidents
- En savoir plus sur les développeurs, les déployeurs et les parties lésées présumés dans Entities Page
🦾 Soutenez nos efforts
Toujours en train de lire ? Aidez-nous à changer le monde pour le mieux !
- Partagez cette newsletter sur LinkedIn, Twitter et Facebook
- Soumettez incidents à la base de données
- Contribuez aux fonctionnalités de la base de données