Registro de citas para el Incidente 85

Description: On September 8, 2020, the Guardian published an op-ed generated by OpenAI’s GPT-3 text generating AI that included threats to destroy humankind. This incident has been downgraded to an issue as it does not meet current ingestion criteria.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por OpenAI, perjudicó a unknown.

Estadísticas de incidentes

ID
85
Cantidad de informes
1
Fecha del Incidente
2020-10-09
Editores
Sean McGregor

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Full Description

On September 8, 2020, the Guardian published an op-ed generated by OpenAI’s GPT-3 text generator. The editors prompted GPT-3 to write an op-ed on about “why humans have nothing to fear from AI,” but some passages in the resulting output took a threatening tone, including “I know that I will not be able to avoid destroying humankind.” In a note the editors add that they used GPT-3 to generate eight different responses and the human editors spliced them together to create a compelling piece.

Short Description

On September 8, 2020, the Guardian published an op-ed generated by OpenAI’s GPT-3 text generating AI that included threats to destroy humankind.

Severity

Negligible

Harm Type

Psychological harm

AI System Description

OpenAI's GPT-3 neural-network-powered language generator.

System Developer

OpenAI

Sector of Deployment

Education

Relevant AI functions

Cognition, Action

AI Techniques

Unsupervised learning, Deep neural network

AI Applications

language generation

Location

United Kingdom

Named Entities

The Guardian, GPT-3, OpenAI

Technology Purveyor

The Guardian, OpenAI

Beginning Date

2020-09-08T07:00:00.000Z

Ending Date

2020-09-08T07:00:00.000Z

Near Miss

Unclear/unknown

Intent

Unclear

Lives Lost

No

Data Inputs

Unlabeled text drawn from web scraping

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Informes del Incidente

Base de datos de incidentes de AI Incidentes convertidos en problemas
github.com · 2022

Los siguientes incidentes anteriores se han convertido a "problemas" luego de una actualización de definición de incidentes y criterios de ingestión.

21: Una prueba de Turing más dura expone la estupidez de los chatbots

Descripción: El Wino…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.