Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1335: La plataforma de inteligencia artificial OpenDream habría comercializado material de abuso sexual infantil (CSAM) generado por IA e imágenes sexuales deepfake no consensuadas.

Traducido por IA
Descripción:
Traducido por IA
OpenDream, una plataforma de generación de imágenes con IA operada por CBM Media Pte Ltd, supuestamente permitía a los usuarios generar y monetizar contenido de abuso sexual infantil (CSAM) generado por IA y deepfakes sexuales no consensuados a través de su galería pública y herramientas de pago NSFW. Se informó que el contenido fue de acceso público e indexado por los motores de búsqueda durante meses antes de que se produjera una moderación limitada a mediados de 2024, lo que provocó la eliminación de contenido por parte de Google y Bing y el cierre de sus servicios de publicidad y pago.
Editor Notes: Reported timeline of events: (1) Deepfakes and materials attributed to the OpenDream platform reportedly began appearing in December 2023. (2) Bellingcat published its investigation on 10/14/2024. (3) The incident ID was created 01/10/2026.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: CBM Media Pte Ltd developed an AI system deployed by OpenDream users y OpenDream, which harmed Victims of non-consensual deepfakes , minors , General public y Children.
Sistema de IA presuntamente implicado: OpenDream platform

Informes del Incidente

Cronología de Informes

Incident Occurrence

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
en revisión
Fecha del Incidente:
2024-10-14

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

Feb 2019 · 3 informes
Loading...
Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Presents Inappropriate Content

May 2015 · 13 informes
Loading...
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

Jul 2019 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

Feb 2019 · 3 informes
Loading...
Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Presents Inappropriate Content

May 2015 · 13 informes
Loading...
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

Jul 2019 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f5f2449