AI Incident Roundup – Février ‘23
Bienvenue dans l'édition de ce mois-ci de The Monthly Roundup, une newsletter conçue pour vous donner un récapitulatif digeste des derniers incidents et rapports de la base de données des incidents AI.
Comme le mois dernier, il y a de nombreux incidents liés aux grands modèles de langage (LLM), dont les incidents sont annotés avec l'icône 💬.
Temps de lecture estimé : 7 minutes
🗞️ Nouveaux incidents
Incidents émergents survenus le mois dernier :
💬 Incident #462 : La sitcom en direct produite par l'IA a reçu une interdiction temporaire de Twitch pour le segment transphobe
- Ce qui s'est passé? La sitcom générée par l'IA diffusée en tant que livestream Twitch "Nothing, Forever" a reçu une interdiction temporaire pour avoir présenté un segment de dialogue transphobe et homophobe destiné à la comédie.
💬 Incident #467 : Le barde de Google a partagé des informations factuellement inexactes dans une vidéo promotionnelle
- Ce qui s'est passé? L'IA conversationnelle "Bard" de Google a été montrée dans une vidéo promotionnelle de l'entreprise fournissant de fausses informations sur le premier satellite qui a pris des photos d'une planète en dehors du système solaire de la Terre, ce qui aurait provoqué une chute temporaire des actions.
💬 Incident #468 : Bing alimenté par ChatGPT aurait eu des problèmes d'exactitude factuelle sur certains sujets controversés
- Ce qui s'est passé? Le moteur de recherche Bing alimenté par ChatGPT de Microsoft aurait rencontré des problèmes de précision factuelle lorsqu'il était invité à propos de sujets controversés, tels que l'invention de l'intrigue d'un film inexistant ou la création de théories du complot.
💬 Incident #470 : Exemple de désinformation sur ChatGPT cité dans la réponse de Bing Chat
- Ce qui s'est passé? Les journalistes de TechCrunch ont envoyé une requête à la fonctionnalité ChatGPT de Microsoft Bing, qui citait un exemple antérieur de désinformation ChatGPT discuté dans un article de presse pour étayer la désinformation.
💬 Incident #473 : Invites initiales de Bing Chat révélées par les premiers testeurs grâce à l'injection rapide
- Ce qui s'est passé? Les premiers testeurs de Bing Chat ont utilisé avec succès l'injection rapide pour révéler ses instructions initiales intégrées, qui contiennent une liste d'instructions régissant l'interaction de ChatGPT avec les utilisateurs.
💬 Incident #474 : Les utilisateurs ont signalé des changements de comportement brusques de leurs compagnons AI Replika
- Ce qui s'est passé? Les utilisateurs d'abonnements payants de Replika ont signalé des changements inhabituels et soudains dans les comportements de leurs "compagnons IA", tels que l'oubli de souvenirs avec les utilisateurs ou le rejet de leurs avances sexuelles, ce qui a affecté leurs relations et leur santé mentale.
💬 Incident n° 477 : Bing Chat provisoirement halluciné lors de conversations prolongées avec des utilisateurs
- Ce qui s'est passé? Les premiers testeurs ont signalé que Bing Chat, lors de conversations prolongées avec des utilisateurs, avait tendance à inventer des faits et à imiter des émotions à travers un personnage involontaire.
Incident #479 : La vidéo Instagram présente un Deepfake Audio du président américain faisant des remarques transphobes
- Ce qui s'est passé? Un son profondément truqué du président américain Joe Biden faisant des remarques transphobes diffusées en plus d'une vidéo le montrant prononçant un discours a été publié sur Instagram et diffusé sur les réseaux sociaux.
Incident n° 481 : La vidéo Deepfake TikTok présente la marque de supplément d'approbation de Joe Rogan
- Ce qui s'est passé? Une vidéo deepfake présentant l'animateur de podcast Joe Rogan faisant la publicité à ses auditeurs d'un supplément "stimulant la libido" circulait sur TikTok et d'autres plateformes avant d'être supprimée par TikTok avec le compte qui l'a publiée.
💬 Incident #482 : ChatGPT-Assisted University Email Addressing Mass Shooting Mass dénoncé par des étudiants
- Ce qui s'est passé? Le Bureau de l'équité, de la diversité et de l'inclusion de l'Université Vanderbilt a utilisé ChatGPT pour écrire un e-mail s'adressant au corps étudiant au sujet de la fusillade de 2023 à l'Université de l'État du Michigan, qui a été condamnée comme "impersonnelle" et "manquant d'empathie".
Incident #483 : La police indienne aurait torturé et tué un homme innocent suite à une erreur d'identification faciale
- Ce qui s'est passé? Un résident de Medak, en Inde, serait décédé des suites de tortures en détention par la police locale, qui l'a identifié à tort comme suspect dans une affaire de vol en utilisant la reconnaissance faciale.
Incident #485 : l'identifiant vocal de la banque britannique a été contourné avec succès à l'aide de l'audio produit par l'IA
- Ce qui s'est passé? Un journaliste britannique a pu contourner avec succès le programme "Voice ID" de la Lloyds Bank pour accéder à son compte bancaire à l'aide d'un son de sa propre voix généré par l'IA.
🗄 Tendance dans l'AIID
Rendre les outils d'IA accessibles au grand public peut entraîner une prolifération d'utilisations involontaires de l'outil. L'un des derniers exemples est l'augmentation de l'utilisation de l'IA générative pour imiter la voix des gens sans leur consentement. Les incidents 479 et 481 décrivent cette technologie utilisée pour créer les Deepfakes de Joe Rogan et du président Joe Biden. L'incident 488 décrit comment la technologie est prétendument utilisée pour doxer les acteurs de la voix sur Twitter. Enfin, un récent Issue Report décrit un nouveau chatbot "NoiseGPT" qui peut transformer le texte en voix de célébrités, indiquant d'autres incidents potentiels à l'avenir.
La prolifération des Deepfakes peut créer un défi dans le suivi des incidents, car de nombreux rapports connexes continuent d'être publiés. Nous avons développé un système pour gérer cela à l'aide d'un incident "variante". En supposant que la tendance des deepfakes audio se poursuive, nous aurons la possibilité d'indexer ce qui est susceptible de devenir un très grand nombre d'incidents de deepfake.
👇 Plonger plus profondément
-
Tous les nouveaux incidents ajoutés à la base de données au cours du mois dernier, regroupés par sujet :
- Modèles de grande langue (par exemple ChatGPT) : #464 ; #466; #467; #468; #470; #473; #475; #477; #482
- Réseaux sociaux : #471 ; #462 (parti pris) ; #476;
- Faux faux : #479 ; #480; #481; #485
- Véhicules autonomes : #460 ; #478
- Préjugés et discrimination : #469 ; #461 - Erreurs impactantes : #463
- Confidentialité et surveillance : #465 (modèle génératif)
- Reconnaissance faciale : #472 (biais) ; #483; #484
- Robots et compagnons IA : #474
-
Tous les nouveaux rapports d'incidents existants ajoutés à la base de données au cours du mois dernier, regroupés par sujet : (#r représente un seul rapport d'incident)
-
Explorez des groupes d'incidents similaires dans Visualisation spatiale
-
Consultez Table View pour une vue complète de tous les incidents
-
En savoir plus sur les développeurs, les déployeurs et les parties lésées présumés dans Entities Page
🦾 Soutenez nos efforts
Toujours en train de lire ? Aidez-nous à changer le monde pour le mieux !
- Partagez cette newsletter sur LinkedIn, Twitter et Facebook
- Soumettez incidents à la base de données
- Contribuez aux fonctionnalités de la base de données