Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 624: Child Sexual Abuse Material Taints Image Generators

Répondu
Description: The LAION-5B dataset (a commonly used dataset with more than 5 billion image-description pairs) was found by researchers to contain child sexual abuse material (CSAM), which increases the likelihood that downstream models will produce CSAM imagery. The discovery taints models built with the LAION dataset requiring many organizations to retrain those models. Additionally, LAION must now scrub the dataset of the imagery.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: LAION developed an AI system deployed by Various people et Various organizations, which harmed Various people , Various organizations , LAION , General public et Children.

Statistiques d'incidents

ID
624
Nombre de rapports
18
Date de l'incident
2023-12-20
Editeurs
Daniel Atherton
Applied Taxonomies
MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

2.1. Compromise of privacy by obtaining, leaking or correctly inferring sensitive information

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Privacy & Security

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Pre-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Rapports d'incidents

Chronologie du rapport

Examen de sécurité pour LAION 5B - Réponse+13
Une enquête révèle que des modèles de génération d'images d'IA sont formés à la maltraitance des enfants
+1
LAION et les défis de la prévention du CSAM généré par l’IA
+1
Un générateur d’images IA a-t-il été supprimé pour avoir produit de la pornographie juvénile ? - Réponse
Examen de sécurité pour LAION 5B

Examen de sécurité pour LAION 5B

laion.ai

Une enquête révèle que des modèles de génération d'images d'IA sont formés à la maltraitance des enfants

Une enquête révèle que des modèles de génération d'images d'IA sont formés à la maltraitance des enfants

cyber.fsi.stanford.edu

L’ensemble de données de formation sur les images de l’IA comprend des images d’abus sexuels sur des enfants

L’ensemble de données de formation sur les images de l’IA comprend des images d’abus sexuels sur des enfants

theverge.com

Une étude révèle la présence de CSAM dans un ensemble de données de formation en IA populaire

Une étude révèle la présence de CSAM dans un ensemble de données de formation en IA populaire

theregister.com

Le plus grand ensemble de données alimentant les images d’IA supprimé après la découverte de matériel d’abus sexuel sur des enfants

Le plus grand ensemble de données alimentant les images d’IA supprimé après la découverte de matériel d’abus sexuel sur des enfants

404media.co

Un ensemble de données d’images gratuites d’IA, supprimé pour les images d’abus sexuels sur des enfants, a déjà été critiqué

Un ensemble de données d’images gratuites d’IA, supprimé pour les images d’abus sexuels sur des enfants, a déjà été critiqué

venturebeat.com

Du matériel d’abus sexuel sur des enfants a été trouvé dans un ensemble de données majeur sur l’IA. Les chercheurs ne sont pas surpris.

Du matériel d’abus sexuel sur des enfants a été trouvé dans un ensemble de données majeur sur l’IA. Les chercheurs ne sont pas surpris.

vice.com

Stable Diffusion 1.5 a été formé sur du matériel illégal sur les abus sexuels sur enfants, selon une étude de Stanford

Stable Diffusion 1.5 a été formé sur du matériel illégal sur les abus sexuels sur enfants, selon une étude de Stanford

forbes.com

Les chercheurs ont trouvé du matériel pédopornographique dans le plus grand ensemble de données de génération d’images d’IA

Les chercheurs ont trouvé du matériel pédopornographique dans le plus grand ensemble de données de génération d’images d’IA

engadget.com

Les données de formation sur l'IA contiennent des images d'abus sexuels sur des enfants, la découverte pointe vers LAION-5B

Les données de formation sur l'IA contiennent des images d'abus sexuels sur des enfants, la découverte pointe vers LAION-5B

techtimes.com

Un grand ensemble de données de formation sur l'IA supprimé après qu'une étude ait découvert du matériel pédopornographique

Un grand ensemble de données de formation sur l'IA supprimé après qu'une étude ait découvert du matériel pédopornographique

cointelegraph.com

Un ensemble de données d’IA influent contient des milliers d’images présumées d’abus sexuels sur des enfants

Un ensemble de données d’IA influent contient des milliers d’images présumées d’abus sexuels sur des enfants

gizmodo.com

Matériel abusif trouvé dans un ensemble de données librement accessible

Matériel abusif trouvé dans un ensemble de données librement accessible

cybernews.com

Erreur majeure détectée dans le plus grand ensemble de données de formation de Stable Diffusion

Erreur majeure détectée dans le plus grand ensemble de données de formation de Stable Diffusion

analyticsvidhya.com

LAION et les défis de la prévention du CSAM généré par l’IA

LAION et les défis de la prévention du CSAM généré par l’IA

techpolicy.press

LAION-5B, Stable Diffusion 1.5 et le péché originel de l'IA générative

LAION-5B, Stable Diffusion 1.5 et le péché originel de l'IA générative

techpolicy.press

Un générateur d’images IA a-t-il été supprimé pour avoir produit de la pornographie juvénile ?

Un générateur d’images IA a-t-il été supprimé pour avoir produit de la pornographie juvénile ?

spectrum.ieee.org

Des images d'abus sur mineurs ont été supprimées de la source de formation du générateur d'images d'IA, selon les chercheurs

Des images d'abus sur mineurs ont été supprimées de la source de formation du générateur d'images d'IA, selon les chercheurs

apnews.com

Examen de sécurité pour LAION 5B
laion.ai · 2023
Traduit par IA
Réponse post-incident de LAION.ai

Des articles ont été publiés dans la presse sur les résultats d'un projet de recherche à l'Université de Stanford, selon lesquels l'ensemble de formation LAION 5B contient des contenus potentiellement illégaux sous forme de CSAM. Nous aimer…

Une enquête révèle que des modèles de génération d'images d'IA sont formés à la maltraitance des enfants
cyber.fsi.stanford.edu · 2023
Traduit par IA

Une enquête du Stanford Internet Observatory (SIO) a identifié des centaines d'images connues de matériel pédopornographique (CSAM) dans un ensemble de données ouvertes utilisé pour entraîner des modèles populaires de génération de texte en…

L’ensemble de données de formation sur les images de l’IA comprend des images d’abus sexuels sur des enfants
theverge.com · 2023
Traduit par IA

Un ensemble de données de formation populaire pour la génération d'images d'IA contenait des liens vers des images de maltraitance d'enfants, [Observatoire Internet de Stanford trouvé](https://cyber.fsi.stanford.edu/news/investigation-finds…

Une étude révèle la présence de CSAM dans un ensemble de données de formation en IA populaire
theregister.com · 2023
Traduit par IA

Un vaste ensemble de données publiques qui a servi de données de formation pour un certain nombre de générateurs d’images d’IA s’est avéré contenir des milliers de cas de matériel d’abus sexuel sur des enfants (CSAM).

Dans une étude publiée…

Le plus grand ensemble de données alimentant les images d’IA supprimé après la découverte de matériel d’abus sexuel sur des enfants
404media.co · 2023
Traduit par IA

*Cet article est publié avec le soutien de The Capitol Forum. * L'ensemble de données d'apprentissage automatique LAION-5B utilisé par Stable Diffusion et d'autres produits majeurs d'IA a été supprimé par l'organisation qui l'a créé après q…

Un ensemble de données d’images gratuites d’IA, supprimé pour les images d’abus sexuels sur des enfants, a déjà été critiqué
venturebeat.com · 2023
Traduit par IA

Un énorme ensemble de données d'IA open source, LAION-5B, qui a été utilisé pour former des générateurs de texte-image d'IA populaires tels que Stable Diffusion 1.5 et Imagen de Google, contient au moins 1 008 cas de matériel d'abus sexuel …

Du matériel d’abus sexuel sur des enfants a été trouvé dans un ensemble de données majeur sur l’IA. Les chercheurs ne sont pas surpris.
vice.com · 2023
Traduit par IA

Plus de 1 000 images d’enfants victimes d’abus sexuels ont été découvertes dans le plus grand ensemble de données utilisé pour entraîner l’IA génératrice d’images, choquant tout le monde, à l’exception de ceux qui mettent en garde contre ce…

Stable Diffusion 1.5 a été formé sur du matériel illégal sur les abus sexuels sur enfants, selon une étude de Stanford
forbes.com · 2023
Traduit par IA

Stable Diffusion, l'un des outils d'IA générative de texte en image les plus populaires sur le marché de [la startup Stability AI d'un milliard de dollars](https://www.forbes.com/sites/kenrickcai/2023/06/04/stable -diffusion-emad-mostaque-s…

Les chercheurs ont trouvé du matériel pédopornographique dans le plus grand ensemble de données de génération d’images d’IA
engadget.com · 2023
Traduit par IA

Des chercheurs de l'Observatoire Internet de Stanford affirment qu'un ensemble de données utilisé pour former les outils de génération d'images d'IA contient au moins 1 008 cas validés de matériel d'abus sexuel sur des enfants. Les chercheu…

Les données de formation sur l'IA contiennent des images d'abus sexuels sur des enfants, la découverte pointe vers LAION-5B
techtimes.com · 2023
Traduit par IA

Il y a eu des problèmes importants avec les données de formation d'AI, avec diverses plaintes déjà déposées par ceux qui prétendaient que leur travail avait été volé, mais la découverte la plus récente a vu des images d'abus sexuels sur des…

Un grand ensemble de données de formation sur l'IA supprimé après qu'une étude ait découvert du matériel pédopornographique
cointelegraph.com · 2023
Traduit par IA

Un ensemble de données d'intelligence artificielle largement utilisé pour former Stable Diffusion, Imagen et d'autres modèles de générateurs d'images d'IA a été supprimé par son créateur après qu'une étude a révélé qu'il contenait des milli…

Un ensemble de données d’IA influent contient des milliers d’images présumées d’abus sexuels sur des enfants
gizmodo.com · 2023
Traduit par IA

Un ensemble de données d'apprentissage automatique influent, qui a été utilisé pour former de nombreuses applications populaires de génération d'images, comprend des milliers d'images suspectées d'abus sexuels sur des enfants, révèle un nou…

Matériel abusif trouvé dans un ensemble de données librement accessible
cybernews.com · 2023
Traduit par IA

Du matériel pédopornographique (CSAM) a été localisé dans LAION, un ensemble de données majeur utilisé pour entraîner l'IA.

L'Observatoire Internet de Stanford a révélé des milliers d'images d'abus sexuels sur des enfants dans l'ensemble de…

Erreur majeure détectée dans le plus grand ensemble de données de formation de Stable Diffusion
analyticsvidhya.com · 2023
Traduit par IA

L'intégrité d'un important ensemble de données de formation d'images d'IA, LAION-5B, utilisé par des modèles d'IA influents comme Stable Diffusion, a été compromise après la découverte de milliers de liens vers du matériel d'abus sexuel sur…

LAION et les défis de la prévention du CSAM généré par l’IA
techpolicy.press · 2024
Traduit par IA

L’IA générative s’est démocratisée. Les kits d'outils permettant de télécharger, de configurer, d'utiliser et d'affiner une variété de modèles ont été transformés en frameworks en un clic pour toute personne disposant d'un ordinateur portab…

LAION-5B, Stable Diffusion 1.5 et le péché originel de l'IA générative
techpolicy.press · 2024
Traduit par IA

Dans Ceux qui s'éloignent d'Omelas, l'écrivaine de fiction Ursula K. Le Guin décrit une ville fantastique dans laquelle les progrès technologiques ont assuré une vie d'abondance à tous ceux qui y vivent. Cachée sous la ville, où personne n'…

Un générateur d’images IA a-t-il été supprimé pour avoir produit de la pornographie juvénile ?
spectrum.ieee.org · 2024
Traduit par IA
Réponse post-incident de David Evan Harris, Dave Willner

Pourquoi les entreprises d’IA valorisées à des millions et des milliards de dollars créent-elles et distribuent-elles des outils permettant de produire du matériel d’abus sexuel sur enfant (CSAM) généré par l’IA ?

Un générateur d’images app…

Des images d'abus sur mineurs ont été supprimées de la source de formation du générateur d'images d'IA, selon les chercheurs
apnews.com · 2024
Traduit par IA

Des chercheurs en intelligence artificielle ont annoncé vendredi avoir supprimé plus de 2 000 liens Web vers des images d'abus sexuels présumés sur des enfants d'un ensemble de données utilisé pour former des outils populaires de génération…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

DALL-E 2 Reported for Gender and Racially Biased Outputs

A new AI draws delightful and not-so-delightful images

Apr 2022 · 3 rapports
Sexist and Racist Google Adsense Advertisements

Discrimination in Online Ad Delivery

Jan 2013 · 27 rapports
Facebook’s Political Ad Detection Reportedly Showed High and Geographically Uneven Error Rates

An Audit of Facebook’s Political Ad Policy Enforcement

Jul 2020 · 5 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

DALL-E 2 Reported for Gender and Racially Biased Outputs

A new AI draws delightful and not-so-delightful images

Apr 2022 · 3 rapports
Sexist and Racist Google Adsense Advertisements

Discrimination in Online Ad Delivery

Jan 2013 · 27 rapports
Facebook’s Political Ad Detection Reportedly Showed High and Geographically Uneven Error Rates

An Audit of Facebook’s Political Ad Policy Enforcement

Jul 2020 · 5 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df