Entités
Voir toutes les entitésStatistiques d'incidents
Risk Subdomain
2.1. Compromise of privacy by obtaining, leaking or correctly inferring sensitive information
Risk Domain
- Privacy & Security
Entity
Human
Timing
Pre-deployment
Intent
Unintentional
Rapports d'incidents
Chronologie du rapport
Des articles ont été publiés dans la presse sur les résultats d'un projet de recherche à l'Université de Stanford, selon lesquels l'ensemble de formation LAION 5B contient des contenus potentiellement illégaux sous forme de CSAM. Nous aimer…

Une enquête du Stanford Internet Observatory (SIO) a identifié des centaines d'images connues de matériel pédopornographique (CSAM) dans un ensemble de données ouvertes utilisé pour entraîner des modèles populaires de génération de texte en…
/cdn.vox-cdn.com/uploads/chorus_asset/file/25176378/1801115698.jpg)
Un ensemble de données de formation populaire pour la génération d'images d'IA contenait des liens vers des images de maltraitance d'enfants, [Observatoire Internet de Stanford trouvé](https://cyber.fsi.stanford.edu/news/investigation-finds…
Un vaste ensemble de données publiques qui a servi de données de formation pour un certain nombre de générateurs d’images d’IA s’est avéré contenir des milliers de cas de matériel d’abus sexuel sur des enfants (CSAM).
Dans une étude publiée…

*Cet article est publié avec le soutien de The Capitol Forum. * L'ensemble de données d'apprentissage automatique LAION-5B utilisé par Stable Diffusion et d'autres produits majeurs d'IA a été supprimé par l'organisation qui l'a créé après q…
Stable Diffusion, l'un des outils d'IA générative de texte en image les plus populaires sur le marché de [la startup Stability AI d'un milliard de dollars](https://www.forbes.com/sites/kenrickcai/2023/06/04/stable -diffusion-emad-mostaque-s…
Il y a eu des problèmes importants avec les données de formation d'AI, avec diverses plaintes déjà déposées par ceux qui prétendaient que leur travail avait été volé, mais la découverte la plus récente a vu des images d'abus sexuels sur des…
Un énorme ensemble de données d'IA open source, LAION-5B, qui a été utilisé pour former des générateurs de texte-image d'IA populaires tels que Stable Diffusion 1.5 et Imagen de Google, contient au moins 1 008 cas de matériel d'abus sexuel …
Plus de 1 000 images d’enfants victimes d’abus sexuels ont été découvertes dans le plus grand ensemble de données utilisé pour entraîner l’IA génératrice d’images, choquant tout le monde, à l’exception de ceux qui mettent en garde contre ce…
Des chercheurs de l'Observatoire Internet de Stanford affirment qu'un ensemble de données utilisé pour former les outils de génération d'images d'IA contient au moins 1 008 cas validés de matériel d'abus sexuel sur des enfants. Les chercheu…

Un ensemble de données d'apprentissage automatique influent, qui a été utilisé pour former de nombreuses applications populaires de génération d'images, comprend des milliers d'images suspectées d'abus sexuels sur des enfants, révèle un nou…
Un ensemble de données d'intelligence artificielle largement utilisé pour former Stable Diffusion, Imagen et d'autres modèles de générateurs d'images d'IA a été supprimé par son créateur après qu'une étude a révélé qu'il contenait des milli…
Du matériel pédopornographique (CSAM) a été localisé dans LAION, un ensemble de données majeur utilisé pour entraîner l'IA.
L'Observatoire Internet de Stanford a révélé des milliers d'images d'abus sexuels sur des enfants dans l'ensemble de…
L'intégrité d'un important ensemble de données de formation d'images d'IA, LAION-5B, utilisé par des modèles d'IA influents comme Stable Diffusion, a été compromise après la découverte de milliers de liens vers du matériel d'abus sexuel sur…
L’IA générative s’est démocratisée. Les kits d'outils permettant de télécharger, de configurer, d'utiliser et d'affiner une variété de modèles ont été transformés en frameworks en un clic pour toute personne disposant d'un ordinateur portab…
Dans Ceux qui s'éloignent d'Omelas, l'écrivaine de fiction Ursula K. Le Guin décrit une ville fantastique dans laquelle les progrès technologiques ont assuré une vie d'abondance à tous ceux qui y vivent. Cachée sous la ville, où personne n'…
Pourquoi les entreprises d’IA valorisées à des millions et des milliards de dollars créent-elles et distribuent-elles des outils permettant de produire du matériel d’abus sexuel sur enfant (CSAM) généré par l’IA ?
Un générateur d’images app…
Des chercheurs en intelligence artificielle ont annoncé vendredi avoir supprimé plus de 2 000 liens Web vers des images d'abus sexuels présumés sur des enfants d'un ensemble de données utilisé pour former des outils populaires de génération…
Variantes
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Discrimination in Online Ad Delivery
Incidents similaires
Did our AI mess up? Flag the unrelated incidents