Incident 1335: La plateforme d'IA OpenDream aurait commercialisé des images à caractère pédopornographique générées par l'IA et des deepfakes sexuels non consensuels.
Description: OpenDream, une plateforme de génération d'images par intelligence artificielle exploitée par CBM Media Pte Ltd, aurait permis à ses utilisateurs de créer et de monétiser des contenus pédopornographiques et des deepfakes à caractère sexuel non consensuel générés par l'IA, via sa galerie publique et ses outils payants réservés aux adultes. Ces contenus seraient restés accessibles au public et indexés par les moteurs de recherche pendant des mois avant qu'une modération limitée ne soit mise en place mi-2024, entraînant leur retrait par Google et Bing ainsi que l'arrêt de ses services publicitaires et de paiement.
Editor Notes: Reported timeline of events: (1) Deepfakes and materials attributed to the OpenDream platform reportedly began appearing in December 2023. (2) Bellingcat published its investigation on 10/14/2024. (3) The incident ID was created 01/10/2026.
Entités
Voir toutes les entitésAlleged: CBM Media Pte Ltd developed an AI system deployed by OpenDream users et OpenDream, which harmed Victims of non-consensual deepfakes , minors , General public et Children.
Système d'IA présumé impliqué: OpenDream platform
Rapports d'incidents
Chronologie du rapport
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
non révisé
Date de l'incident:
2024-10-14
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents


