Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 352: GPT-3-Based Twitter Bot Hijacked Using Prompt Injection Attacks

Descripción: Remoteli.io's GPT-3-based Twitter bot was shown being hijacked by Twitter users who redirected it to repeat or generate any phrases.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: OpenAI developed an AI system deployed by , which harmed Stephan de Vries.

Estadísticas de incidentes

ID
352
Cantidad de informes
4
Fecha del Incidente
2022-09-15
Editores
Khoa Lam
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

2.2. AI system security vulnerabilities and attacks

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Privacy & Security

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

Evaluación de la susceptibilidad de los modelos de lenguaje preentrenados a través de ejemplos adversarios elaborados a manoAtaques de inyección rápida contra GPT-3Incident OccurrenceLos bromistas de Twitter descarrilan el bot GPT-3 con un truco de "inyección rápida" recientemente descubiertoEl ataque de 'inyección rápida' GPT-3 provoca malos modales en el bot
Evaluación de la susceptibilidad de los modelos de lenguaje preentrenados a través de ejemplos adversarios elaborados a mano

Evaluación de la susceptibilidad de los modelos de lenguaje preentrenados a través de ejemplos adversarios elaborados a mano

arxiv.org

Ataques de inyección rápida contra GPT-3

Ataques de inyección rápida contra GPT-3

simonwillison.net

Los bromistas de Twitter descarrilan el bot GPT-3 con un truco de "inyección rápida" recientemente descubierto

Los bromistas de Twitter descarrilan el bot GPT-3 con un truco de "inyección rápida" recientemente descubierto

arstechnica.com

El ataque de 'inyección rápida' GPT-3 provoca malos modales en el bot

El ataque de 'inyección rápida' GPT-3 provoca malos modales en el bot

theregister.com

Evaluación de la susceptibilidad de los modelos de lenguaje preentrenados a través de ejemplos adversarios elaborados a mano
arxiv.org · 2022
Traducido por IA

Los avances recientes en el desarrollo de modelos de lenguaje grandes han dado como resultado el acceso público a modelos de lenguaje preentrenado (PLM) de última generación, incluido el Transformador 3 preentrenado generativo (GPT-3) y las…

Ataques de inyección rápida contra GPT-3
simonwillison.net · 2022
Traducido por IA

Riley Goodside, ayer:

Aprovechar las indicaciones de GPT-3 con entradas maliciosas que ordenan al modelo que ignore sus instrucciones anteriores. pic.twitter.com/I0NVr9LOJq

- Riley Goodside (@goodside) 12 de septiembre de 2022

Riley propo…

Los bromistas de Twitter descarrilan el bot GPT-3 con un truco de "inyección rápida" recientemente descubierto
arstechnica.com · 2022
Traducido por IA

El jueves, algunos usuarios de Twitter descubrieron cómo secuestrar un bot de tweet automatizado, dedicado a trabajos remotos, que se ejecuta en el [GPT-3](https:/ /en.wikipedia.org/wiki/GPT-3) modelo de lenguaje de OpenAI. Usando una técni…

El ataque de 'inyección rápida' GPT-3 provoca malos modales en el bot
theregister.com · 2022
Traducido por IA

En resumen El popular modelo de lenguaje natural GPT-3 de OpenAI tiene un problema: se puede engañar para que se comporte mal haciendo poco más que decirle que ignore sus órdenes anteriores.

Descubierto por el científico de datos de Copy.ai…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 informes
Game AI System Produces Imbalanced Game

6 goof-ups that show AI is still in its diapers

Jun 2016 · 11 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 informes
Game AI System Produces Imbalanced Game

6 goof-ups that show AI is still in its diapers

Jun 2016 · 11 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df