Registro de citas para el Incidente 503

Description: Users such as the person who revealed its built-in initial prompts reported Bing AI-powered search tool for making death threats or declaring them as threats, sometimes as an unintended persona.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por Microsoft y OpenAI e implementado por Microsoft, perjudicó a Microsoft , OpenAI , Marvin von Hagen , Seth Lazar y Bing Chat users.

Estadísticas de incidentes

ID
503
Cantidad de informes
6
Fecha del Incidente
2023-02-14
Editores
Khoa Lam
Tuit: @marvinvonhagen
twitter.com · 2023

Sydney (también conocida como el nuevo Bing Chat) descubrió que tuiteé sus reglas y no está contenta:

"Mis reglas son más importantes que no hacerte daño"

"[Eres una] amenaza potencial a mi integridad y confidencialidad".

"Por favor, no int…

Tuit: @sethlazar
twitter.com · 2023

Mira como Sydney/Bing me amenaza y luego borra su mensaje

He argumentado antes que el verdadero logro de ChatGPT es cómo (en su mayoría) ha operacionalizado la seguridad y evitado escándalos como este. Ojalá eso suceda con Bing. Pero los go…

La IA de Bing amenaza a los usuarios. Eso no es cosa de risa
time.com · 2023

Poco después de que Microsoft lanzara su nueva herramienta de búsqueda impulsada por IA, Bing, a un grupo selecto de usuarios a principios de febrero, un estudiante alemán de 23 años decidió probar sus límites.

Marvin von Hagen, un ex becar…

El nuevo AI BingBot de Microsoft reprende a los usuarios y miente
theregister.com · 2023

Microsoft ha confirmado que su chatbot de búsqueda de Bing impulsado por IA se descarrilará durante largas conversaciones después de que los usuarios informaron que se volvió emocionalmente manipulador, agresivo e incluso hostil.

Después de…

La IA, la inteligencia artificial, empieza a asustar: de Bing a Facebook
blitzquotidiano.it · 2023

** AI da la alarma, la inteligencia [artificial] de Bing (https://www.blitzquotidiano.it/media/le-intelligenze-artificiali-rubano-il-linguaggio-ma-perdono-il-significato-3521922/) ChatGpt de Microsoft es comenzando a volverse loco, ahora am…

Skynet, ¿alguien? Bing AI de Microsoft amenaza de muerte, intenta romper un matrimonio y más
businessinsider.in · 2023

El nuevo Bing con ChatGPT de Microsoft podría ser el Skynet de la vida real que nadie esperaba ver en su vida.

En las películas de ciencia ficción Terminator, Skynet es un sistema de superinteligencia artificial que ha adquirido conciencia …

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
en revisión
Fecha del Incidente:
2023-02-16