Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3552

Incidentes Asociados

Incidente 62418 Reportes
Child Sexual Abuse Material Taints Image Generators

Se eliminó un gran conjunto de datos de entrenamiento de IA después de que un estudio encontrara material de abuso infantil
cointelegraph.com · 2023

Su creador eliminó un conjunto de datos de inteligencia artificial ampliamente utilizado para entrenar Stable Diffusion, Imagen y otros modelos de generación de imágenes de IA después de que un estudio encontró que contenía miles de instancias de material sospechoso de abuso sexual infantil.

LAION --- también conocida como Red Abierta de Inteligencia Artificial a Gran Escala, es una organización alemana sin fines de lucro que fabrica modelos y conjuntos de datos de inteligencia artificial de código abierto que se utilizan para entrenar varios modelos populares de conversión de texto a imagen.

Un informe del 20 de diciembre de investigadores del Centro de Política Cibernética del Observatorio de Internet de Stanford dijo que identificaron 3.226 casos de CSAM sospechoso (o material de abuso sexual infantil) en el conjunto de datos LAION-5B, "muchos de los cuales fueron confirmados como CSAM". por terceros", según David Thiel, arquitecto de Big Data y tecnólogo jefe del Stanford Cyber Policy Center.

Thiel señaló que si bien la presencia de CSAM no significa necesariamente que influirá "drásticamente" en el resultado de los modelos entrenados en el conjunto de datos, aún podría tener algún efecto.

"Si bien la cantidad de CSAM presente no necesariamente indica que la presencia de CSAM influya drásticamente en el resultado del modelo más allá de la capacidad del modelo para combinar los conceptos de actividad sexual y niños, es probable que aún ejerza influencia", dijo Thiel.

"La presencia repetida de casos idénticos de MASI también es problemática, sobre todo porque refuerza las imágenes de víctimas específicas", añadió.

El conjunto de datos LAION-5B se publicó en marzo de 2022 e incluye 5850 millones de pares de imagen-texto, según LAION.

En un comunicado, LAION dijo que ha [eliminado](https://www.theguardian.com/technology/2023/dec/20/ai-image-generators-child-sexual-abuse#:~:text=LAION%2C %20que%20representa%20los%20,son%20seguros%20antes de%20republicarlos%20%E2%80%9D.) los datos se establecen como "mucha precaución", incluidos tanto el LAION-5B como su LAION-400M, " para garantizar que sean seguros antes de volver a publicarlos".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • eeb4352