Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3557

Incidentes Asociados

Incidente 62418 Reportes
Child Sexual Abuse Material Taints Image Generators

Loading...
Material de abuso encontrado en un conjunto de datos de acceso abierto
cybernews.com · 2023

Se ha localizado material de abuso sexual infantil (CSAM) en LAION, un importante conjunto de datos utilizado para entrenar la IA.

El Observatorio de Internet de Stanford reveló miles de imágenes de abuso sexual infantil en el conjunto de datos LAION-5B, que respalda muchos modelos de IA diferentes.

El informe muestra que los modelos de IA como Stable Diffusion e Imagen de Google "fueron entrenados en miles de millones de imágenes extraídas del conjunto de datos LAION-5B". Se dice que este conjunto de datos se creó mediante "rastreo no guiado que incluye una cantidad significativa de material explícito".

Estas imágenes han permitido a los sistemas de inteligencia artificial producir imágenes realistas y explícitas de niños imaginarios y, al mismo tiempo, alterar imágenes de personas vestidas para convertirlas en fotografías desnudas.

Informes anteriores del Stanford Internet Observatory han deducido que los modelos de aprendizaje automático pueden producir CSAM. Sin embargo, el trabajo asumió que esto sólo era posible combinando "dos conceptos", como niño y acciones explícitas.

A pesar de los intentos de LAION de clasificar si el contenido era sexualmente explícito o si los datos contenían contenido explícito para menores de edad, los modelos fueron entrenados en una amplia gama de contenido gráfico y benigno.

El informe concluye que tener posesión de un conjunto de datos LAION-5B implica la posesión de "miles de imágenes ilegales, sin incluir todas las imágenes íntimas publicadas y recopiladas sin consentimiento".

No hay evidencia que sugiera que CSAM influya en el resultado del modelo, y la probabilidad de que el contenido CSAM ejerza influencia es escasa.

A pesar de tener una "política de tolerancia cero para el contenido ilegal", una multitud de imágenes que contienen CSAM están presentes en el conjunto de datos de código abierto de LAION.

Desde entonces, el conjunto de datos 5B de LAION se ha desconectado y la organización sin fines de lucro está trabajando en estrecha colaboración con Internet Watch Foundation, una organización benéfica dedicada a proteger a los niños en todo el mundo mediante la eliminación y prevención de contenido abusivo en línea.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd