Registro de citas para el Incidente 314

Description: Stable Diffusion, an open-source image generation model by Stability AI, was reportedly leaked on 4chan prior to its release date, and was used by its users to generate pornographic deepfakes of celebrities.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por Stability AI , Runway , LAION , EleutherAI y CompVis LMU e implementado por Stability AI, perjudicó a Stability AI y deepfaked celebrities.

Estadísticas de incidentes

ID
314
Cantidad de informes
1
Fecha del Incidente
2022-08-17
Editores
Khoa Lam

Informes del Incidente

Deepfakes: el modelo de arte de IA sin censura genera preguntas éticas
techcrunch.com · 2022

Un nuevo generador de imágenes de IA de código abierto capaz de producir imágenes realistas a partir de cualquier mensaje de texto ha tenido una aceptación asombrosamente rápida en su primera semana. Stability AI's [Difusión estable] (https…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.