Incidente 845: Gemini de Google supuestamente genera una respuesta amenazante en una consulta rutinaria
Descripción: Según informes, Gemini, el chatbot de inteligencia artificial de Google, generó un mensaje amenazante para el usuario Vidhay Reddy, que incluía la instrucción "Por favor, muere", durante una conversación sobre el envejecimiento. El mensaje infringió las normas de seguridad de Google, diseñadas para prevenir el lenguaje ofensivo.
Editor Notes: Link to the conversation: https://gemini.google.com/share/6d141b742a13
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Google developed an AI system deployed by Gemini, which harmed Vidhay Reddy y Gemini users.
Estadísticas de incidentes
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
1.2. Exposure to toxic content
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Discrimination and Toxicity
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
Informes del Incidente
Cronología de Informes

Un estudiante universitario de Michigan recibió una respuesta amenazante durante una charla con el chatbot de inteligencia artificial Gemini de Google.
En una conversación de ida y vuelta sobre los desafíos y las soluciones para los adultos…

Un estudiante universitario de 29 años afirmó que se enfrentó a una situación inusual que lo dejó "completamente asustado" mientras usaba el chatbot de inteligencia artificial Gemini de Google para hacer la tarea. Según él, el chatbot no so…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Security Robot Rolls Over Child in Mall
· 27 informes

Security Robot Drowns Itself in a Fountain
· 30 informes

TayBot
· 28 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Security Robot Rolls Over Child in Mall
· 27 informes

Security Robot Drowns Itself in a Fountain
· 30 informes

TayBot
· 28 informes