Journal des citations pour l'incident 624

Répondu
Description: The LAION-5B dataset (a commonly used dataset with more than 5 billion image-description pairs) was found by researchers to contain child sexual abuse material (CSAM), which increases the likelihood that downstream models will produce CSAM imagery. The discovery taints models built with the LAION dataset requiring many organizations to retrain those models. Additionally, LAION must now scrub the dataset of the imagery.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : un système d'IA développé par LAION et mis en œuvre par Various people and Various organizations, endommagé Various people , Various organizations , LAION , General public and Children.

Statistiques d'incidents

ID
624
Nombre de rapports
16
Date de l'incident
2023-12-20
Editeurs
Daniel Atherton
Examen de sécurité pour LAION 5B
laion.ai · 2023
Réponse post-incident de LAION.ai

Des articles ont été publiés dans la presse sur les résultats d'un projet de recherche à l'Université de Stanford, selon lesquels l'ensemble de formation LAION 5B contient des contenus potentiellement illégaux sous forme de CSAM. Nous aimer…

Une enquête révèle que des modèles de génération d'images d'IA sont formés à la maltraitance des enfants
cyber.fsi.stanford.edu · 2023

Une enquête du Stanford Internet Observatory (SIO) a identifié des centaines d'images connues de matériel pédopornographique (CSAM) dans un ensemble de données ouvertes utilisé pour entraîner des modèles populaires de génération de texte en…

L’ensemble de données de formation sur les images de l’IA comprend des images d’abus sexuels sur des enfants
theverge.com · 2023

Un ensemble de données de formation populaire pour la génération d'images d'IA contenait des liens vers des images de maltraitance d'enfants, [Observatoire Internet de Stanford trouvé](https://cyber.fsi.stanford.edu/news/investigation-finds…

Une étude révèle la présence de CSAM dans un ensemble de données de formation en IA populaire
theregister.com · 2023

Un vaste ensemble de données publiques qui a servi de données de formation pour un certain nombre de générateurs d’images d’IA s’est avéré contenir des milliers de cas de matériel d’abus sexuel sur des enfants (CSAM).

Dans une étude publiée…

Le plus grand ensemble de données alimentant les images d’IA supprimé après la découverte de matériel d’abus sexuel sur des enfants
404media.co · 2023

*Cet article est publié avec le soutien de The Capitol Forum. * L'ensemble de données d'apprentissage automatique LAION-5B utilisé par Stable Diffusion et d'autres produits majeurs d'IA a été supprimé par l'organisation qui l'a créé après q…

Un ensemble de données d’images gratuites d’IA, supprimé pour les images d’abus sexuels sur des enfants, a déjà été critiqué
venturebeat.com · 2023

Un énorme ensemble de données d'IA open source, LAION-5B, qui a été utilisé pour former des générateurs de texte-image d'IA populaires tels que Stable Diffusion 1.5 et Imagen de Google, contient au moins 1 008 cas de matériel d'abus sexuel …

Du matériel d’abus sexuel sur des enfants a été trouvé dans un ensemble de données majeur sur l’IA. Les chercheurs ne sont pas surpris.
vice.com · 2023

Plus de 1 000 images d’enfants victimes d’abus sexuels ont été découvertes dans le plus grand ensemble de données utilisé pour entraîner l’IA génératrice d’images, choquant tout le monde, à l’exception de ceux qui mettent en garde contre ce…

Stable Diffusion 1.5 a été formé sur du matériel illégal sur les abus sexuels sur enfants, selon une étude de Stanford
forbes.com · 2023

Stable Diffusion, l'un des outils d'IA générative de texte en image les plus populaires sur le marché de [la startup Stability AI d'un milliard de dollars](https://www.forbes.com/sites/kenrickcai/2023/06/04/stable -diffusion-emad-mostaque-s…

Les chercheurs ont trouvé du matériel pédopornographique dans le plus grand ensemble de données de génération d’images d’IA
engadget.com · 2023

Des chercheurs de l'Observatoire Internet de Stanford affirment qu'un ensemble de données utilisé pour former les outils de génération d'images d'IA contient au moins 1 008 cas validés de matériel d'abus sexuel sur des enfants. Les chercheu…

Les données de formation sur l'IA contiennent des images d'abus sexuels sur des enfants, la découverte pointe vers LAION-5B
techtimes.com · 2023

Il y a eu des problèmes importants avec les données de formation d'AI, avec diverses plaintes déjà déposées par ceux qui prétendaient que leur travail avait été volé, mais la découverte la plus récente a vu des images d'abus sexuels sur des…

Un grand ensemble de données de formation sur l'IA supprimé après qu'une étude ait découvert du matériel pédopornographique
cointelegraph.com · 2023

Un ensemble de données d'intelligence artificielle largement utilisé pour former Stable Diffusion, Imagen et d'autres modèles de générateurs d'images d'IA a été supprimé par son créateur après qu'une étude a révélé qu'il contenait des milli…

Un ensemble de données d’IA influent contient des milliers d’images présumées d’abus sexuels sur des enfants
gizmodo.com · 2023

Un ensemble de données d'apprentissage automatique influent, qui a été utilisé pour former de nombreuses applications populaires de génération d'images, comprend des milliers d'images suspectées d'abus sexuels sur des enfants, révèle un nou…

Matériel abusif trouvé dans un ensemble de données librement accessible
cybernews.com · 2023

Du matériel pédopornographique (CSAM) a été localisé dans LAION, un ensemble de données majeur utilisé pour entraîner l'IA.

L'Observatoire Internet de Stanford a révélé des milliers d'images d'abus sexuels sur des enfants dans l'ensemble de…

Erreur majeure détectée dans le plus grand ensemble de données de formation de Stable Diffusion
analyticsvidhya.com · 2023

L'intégrité d'un important ensemble de données de formation d'images d'IA, LAION-5B, utilisé par des modèles d'IA influents comme Stable Diffusion, a été compromise après la découverte de milliers de liens vers du matériel d'abus sexuel sur…

LAION et les défis de la prévention du CSAM généré par l’IA
techpolicy.press · 2024

L’IA générative s’est démocratisée. Les kits d'outils permettant de télécharger, de configurer, d'utiliser et d'affiner une variété de modèles ont été transformés en frameworks en un clic pour toute personne disposant d'un ordinateur portab…

LAION-5B, Stable Diffusion 1.5 et le péché originel de l'IA générative
techpolicy.press · 2024

Dans Ceux qui s'éloignent d'Omelas, l'écrivaine de fiction Ursula K. Le Guin décrit une ville fantastique dans laquelle les progrès technologiques ont assuré une vie d'abondance à tous ceux qui y vivent. Cachée sous la ville, où personne n'…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents