Description: Google’s AI chatbot Gemini reportedly produced a threatening message to user Vidhay Reddy, including the directive “Please die,” during a conversation about aging. The output violated Google’s safety guidelines, which are designed to prevent harmful language.
Editor Notes: Link to the conversation: https://gemini.google.com/share/6d141b742a13
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado por Google e implementado por Gemini, perjudicó a Vidhay Reddy y Gemini users.
Estadísticas de incidentes
ID
845
Cantidad de informes
1
Fecha del Incidente
2024-11-13
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
cbsnews.com · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Un estudiante universitario de Michigan recibió una respuesta amenazante durante una charla con el chatbot de inteligencia artificial Gemini de Google.
En una conversación de ida y vuelta sobre los desafíos y las soluciones para los adultos…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents