Journal des citations pour l'incident 85

Description: On September 8, 2020, the Guardian published an op-ed generated by OpenAI’s GPT-3 text generating AI that included threats to destroy humankind. This incident has been downgraded to an issue as it does not meet current ingestion criteria.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par OpenAI, endommagé unknown.

Statistiques d'incidents

ID
85
Nombre de rapports
1
Date de l'incident
2020-10-09
Editeurs
Sean McGregor

Classifications de taxonomie CSETv0

Détails de la taxonomie

Full Description

On September 8, 2020, the Guardian published an op-ed generated by OpenAI’s GPT-3 text generator. The editors prompted GPT-3 to write an op-ed on about “why humans have nothing to fear from AI,” but some passages in the resulting output took a threatening tone, including “I know that I will not be able to avoid destroying humankind.” In a note the editors add that they used GPT-3 to generate eight different responses and the human editors spliced them together to create a compelling piece.

Short Description

On September 8, 2020, the Guardian published an op-ed generated by OpenAI’s GPT-3 text generating AI that included threats to destroy humankind.

Severity

Negligible

Harm Type

Psychological harm

AI System Description

OpenAI's GPT-3 neural-network-powered language generator.

System Developer

OpenAI

Sector of Deployment

Education

Relevant AI functions

Cognition, Action

AI Techniques

Unsupervised learning, Deep neural network

AI Applications

language generation

Location

United Kingdom

Named Entities

The Guardian, GPT-3, OpenAI

Technology Purveyor

The Guardian, OpenAI

Beginning Date

2020-09-08T07:00:00.000Z

Ending Date

2020-09-08T07:00:00.000Z

Near Miss

Unclear/unknown

Intent

Unclear

Lives Lost

No

Data Inputs

Unlabeled text drawn from web scraping

Classifications de taxonomie CSETv1

Détails de la taxonomie

Rapports d'incidents

Incidents de la base de données des incidents AI convertis en problèmes
github.com · 2022

Les anciens incidents suivants ont été convertis en "issues" suite à une mise à jour de la définition d'incident et critères d'ingestion.

21 : Un test de Turing plus difficile révèle la stupidité des chatbots

Description : Le Winograd Schem…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.