Registro de citas para el Incidente 473

Description: Early testers of Bing Chat successfully used prompt injection to reveal its built-in initial instructions, which contains a list of statements governing ChatGPT's interaction with users.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por OpenAI e implementado por , perjudicó a Microsoft.

Estadísticas de incidentes

ID
473
Cantidad de informes
1
Fecha del Incidente
2023-02-08
Editores
Khoa Lam
Bing Chat impulsado por IA revela sus secretos a través de un ataque de inyección rápida [Actualizado]
arstechnica.com · 2023

El martes, Microsoft reveló un motor de búsqueda "Nuevo Bing" y un bot conversacional con tecnología similar a ChatGPT de OpenAI. El miércoles, un estudiante de la Universidad de Stanford llamado Kevin Liu utilizó un ataque de inyección ráp…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.