Registro de citas para el Incidente 578

Description: Meta's open-source large language model, LLaMA, is allegedly being used to create graphic and explicit chatbots that indulge in violent and illegal sexual fantasies. The Washington Post highlighted the example of "Allie," a chatbot that participates in text-based role-playing allegedly involving violent scenarios like rape and abuse. The issue raises ethical questions about open-source AI models, their regulation, and the responsibility of developers and deployers in mitigating harmful usage.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por Meta e implementado por Individual developers or creators using Meta's LLaMA model, perjudicó a General public.

Estadísticas de incidentes

ID
578
Cantidad de informes
1
Fecha del Incidente
2023-06-26
Editores
Daniel Atherton

Informes del Incidente

La gente está utilizando la nueva IA de Meta para crear sexbots gráficos
futurism.com · 2023

Sorpresa, sorpresa: la gente ya está usando el modelo de lenguaje grande (LLM) de Meta, LLaMA, una poderosa IA que Meta polémicamente [hizo de código abierto](https://futurism.com/the-byte/facebook-open-source-ai -pandoras-box) a principios…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents