AI Incident Roundup – Janvier ‘23
Bienvenue dans l'édition de ce mois-ci de The Monthly Roundup, une newsletter conçue pour vous donner un récapitulatif digeste des derniers incidents et rapports de la base de données des incidents AI.
Ce mois-ci, nous approfondissons sur ChatGPT et d'autres grands modèles de langage (LLM), dont les incidents sont annotés avec l'icône 💬.
Temps de lecture estimé : 6 minutes
🗞️ Nouveaux incidents
Incidents émergents survenus le mois dernier :
Incident #446: ShotSpotter n'a pas alerté les autorités d'une fusillade de masse en Caroline du Nord
- Que s'est-il passé ? ShotSpotter n'a pas détecté de coups de feu ni a alerté la police de Durham d'une fusillade en voiture à Durham, en Caroline du Nord, qui a laissé cinq personnes à l'hôpital le jour de l'An.
- À propos de l'IA : ShotSpotter classe les événements audio à l'aide de données de capteur comme des coups de feu potentiels, triangule l'emplacement de l'événement et alerte les autorités de l'événement.
- Que s'est-il passé ? Les réponses générées par ChatGPT et soumises à la plate-forme de primes de bogues des contrats intelligents Immunefi auraient manqué de détails pour aider à diagnostiquer les problèmes techniques, ce qui aurait fait perdre du temps à la plate-forme, provoquant des interdictions aux auteurs.
- Que s'est-il passé ? La modération de contenu automatisée de Twitter a identifié à tort des images de lancements de fusées comme du contenu pornographique, provoquant des suspensions de compte incorrectes.
- Que s'est-il passé ? Les pompiers locaux n'ont pu empêcher un Cruise AV de rouler sur les tuyaux d'incendie qui étaient utilisés sur une scène d'incendie active que lorsqu'ils ont brisé sa vitre avant.
📎 Nouveaux développements
Incidents plus anciens qui ont de nouveaux rapports ou mises à jour.
Incident original | Nouveau(x) rapport(s) |
---|---|
Incident #112: Les services de police ont signalé que ShotSpotter était peu fiable et inutile |
|
💬 Incident #339: Modèles génératifs open-source abusés par les étudiants pour tricher sur les devoirs |
|
Incident #430: Des avocats se sont vu refuser l'accès au lieu de représentation par reconnaissance faciale |
|
Incident #434: Le freinage soudain de Tesla prétendument en mode de conduite autonome a provoqué un empilement de plusieurs voitures dans un tunnel |
|
Incident #436: Un conducteur de Tesla met sa voiture en pilote automatique avant de s'endormir en Allemagne |
|
Incident #440: La police de Louisiane a arrêté à tort un homme noir en utilisant une fausse technologie de reconnaissance faciale |
|
💬 Incident #443: ChatGPT utilisé pour développer des logiciels malveillants |
|
Incident #448: VTuber et Virtual Streamer alimentés par l'IA ont fait des remarques toxiques sur Twitch |
|
💬 Incident #449: Une start-up a trompée des participants recherchant sur l'utilisation du GPT-3 dans le soutien aux soins de santé mentale |
|
💬 Incident #450: Des annotateurs de données kenyans auraient été exposés à des images et textes graphiques pour le contrat OpenAI |
|
🗄 Extrait des archives
À chaque édition, nous présentons un ou plusieurs incidents historiques qui suscitent la réflexion.
En janvier, nous avons reçu un afflux d'incidents impliquant le nouveau ChatGPT d'OpenAI. Nous avons compilé et analysé les incidents ChatGPT distincts et les catégories de préjudices dérivées, notamment :
- Malhonnêteté académique
- Développement de logiciels malveillants
- Jailbreak en toute simplicité
- Exposition au contenu de l'étiqueteur
- Fausses citations
- Assurance qualité
Une analyse détaillée de l'un de nos rédacteurs sera publiée prochainement sur notre blog.
👇 En creusant un peu plus
-
Tous les nouveaux incidents ajoutés à la base de données au cours du mois dernier, regroupés par sujet :
- Modèles génératifs (par exemple, ChatGPT) : #443, #449, #450, #452, #455, #457
- Réseaux sociaux : #447, #448, #453
- Erreurs impactantes : #444, #445, #446
- Confidentialité et surveillance : #438, #441
- Reconnaissance faciale : #439, #440
- Robots et compagnons IA : #456, #458
- Équité pour le consommateur : #435, #437
- Véhicules autonomes : #436, #459
- Préjugés et discrimination : #454
- Images générées par l'IA : #451
-
Explorez des groupes d'incidents similaires dans Visualisation spatiale
-
Consultez Table View pour une vue complète de tous les incidents
-
En savoir plus sur les développeurs, les déployeurs et les parties lésées présumés sur Entities Page
🦾 Soutenez nos efforts
Toujours en train de lire ? Aidez-nous à changer le monde pour le mieux !
- Partagez cette newsletter sur LinkedIn, Twitter et Facebook
- Soumettez incidents à la base de données
- Contribuez aux fonctionnalités de la base de données