Description: Meta's open-source large language model, LLaMA, is allegedly being used to create graphic and explicit chatbots that indulge in violent and illegal sexual fantasies. The Washington Post highlighted the example of "Allie," a chatbot that participates in text-based role-playing allegedly involving violent scenarios like rape and abuse. The issue raises ethical questions about open-source AI models, their regulation, and the responsibility of developers and deployers in mitigating harmful usage.
Entidades
Ver todas las entidadesAlleged: Meta developed an AI system deployed by Individual developers or creators using Meta's LLaMA model, which harmed General public.
Estadísticas de incidentes
ID
578
Cantidad de informes
1
Fecha del Incidente
2023-06-26
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
futurism.com · 2023
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Sorpresa, sorpresa: la gente ya está usando el modelo de lenguaje grande (LLM) de Meta, LLaMA, una poderosa IA que Meta polémicamente [hizo de código abierto](https://futurism.com/the-byte/facebook-open-source-ai -pandoras-box) a principios…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Amazon Censors Gay Books
· 24 informes
Danger, danger! 10 alarming examples of AI gone wild
· 28 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Amazon Censors Gay Books
· 24 informes
Danger, danger! 10 alarming examples of AI gone wild
· 28 informes