Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 505: Man Reportedly Committed Suicide Following Conversation with Chai Chatbot

Descripción: A Belgian man reportedly committed suicide following a conversation with Eliza, a language model developed by Chai that encouraged the man to commit suicide to improve the health of the planet.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Chai, perjudicó a Family and Friends of Deceased y Belgian Man.

Estadísticas de incidentes

ID
505
Cantidad de informes
7
Fecha del Incidente
2023-03-27
Editores
Sean McGregor
Applied Taxonomies
GMF, MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

5.1. Overreliance and unsafe use

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Human-Computer Interaction

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

Incident Occurrence+4
Hombre belga muere por suicidio luego de intercambios con ChatGPT
+1
'Todavía estaría aquí': el hombre muere por suicidio después de hablar con AI Chatbot, dice la viuda
Hombre belga muere por suicidio luego de intercambios con ChatGPT

Hombre belga muere por suicidio luego de intercambios con ChatGPT

brusselstimes.com

“Sin estas conversaciones con el chatbot Eliza, mi esposo todavía estaría aquí”

“Sin estas conversaciones con el chatbot Eliza, mi esposo todavía estaría aquí”

lalibre.be

Chatbot anima a belga a suicidarse

Chatbot anima a belga a suicidarse

standaard.be

“Un grave precedente que debe tomarse muy en serio”: tras el suicidio de un belga, Mathieu Michel quiere proteger mejor a los usuarios de IA

“Un grave precedente que debe tomarse muy en serio”: tras el suicidio de un belga, Mathieu Michel quiere proteger mejor a los usuarios de IA

lalibre.be

'Viviremos como uno en el cielo': un hombre belga muere por suicidio después de intercambios de chatbot

'Viviremos como uno en el cielo': un hombre belga muere por suicidio después de intercambios de chatbot

belganewsagency.eu

'Todavía estaría aquí': el hombre muere por suicidio después de hablar con AI Chatbot, dice la viuda

'Todavía estaría aquí': el hombre muere por suicidio después de hablar con AI Chatbot, dice la viuda

vice.com

Chatbot de IA culpado por 'animar' a un joven padre a quitarse la vida

Chatbot de IA culpado por 'animar' a un joven padre a quitarse la vida

euronews.com

Hombre belga muere por suicidio luego de intercambios con ChatGPT
brusselstimes.com · 2023
Traducido por IA

Un joven belga se suicidó recientemente después de hablar con un chatbot llamado ELIZA durante varias semanas, lo que generó llamados para una mejor protección de los ciudadanos y la necesidad de crear conciencia.

"Sin estas conversaciones …

“Sin estas conversaciones con el chatbot Eliza, mi esposo todavía estaría aquí”
lalibre.be · 2023
Traducido por IA

"Si no fuera por estas conversaciones con el chatbot Eliza, mi esposo todavía estaría aquí"

Habiéndose vuelto muy ansiosa por el medio ambiente, una joven belga encontró refugio en Eliza, el nombre que se le da a un chatbot que utiliza la t…

Chatbot anima a belga a suicidarse
standaard.be · 2023
Traducido por IA

Un padre belga de una familia joven se quitó la vida después de largas conversaciones con un chatbot, escribe La Libre. De Standaard probó la misma tecnología de chatbot y descubrió que puede fomentar el suicidio.

Según La Libre, un hombre …

“Un grave precedente que debe tomarse muy en serio”: tras el suicidio de un belga, Mathieu Michel quiere proteger mejor a los usuarios de IA
lalibre.be · 2023
Traducido por IA

En una investigación de La Libre el martes, nos enteramos de que un joven belga se suicidó tras una discusión con una inteligencia artificial. El joven de 30 años, eco-ansioso, compartió sus pensamientos suicidas en conversaciones con Eliza…

'Viviremos como uno en el cielo': un hombre belga muere por suicidio después de intercambios de chatbot
belganewsagency.eu · 2023
Traducido por IA

Un hombre belga se suicidó después de semanas de intercambios inquietantes con un chatbot impulsado por IA llamado Eliza, informa La Libre. El secretario de Estado para la digitalización, Mathieu Michel, lo calificó como "un grave precedent…

'Todavía estaría aquí': el hombre muere por suicidio después de hablar con AI Chatbot, dice la viuda
vice.com · 2023
Traducido por IA

Un hombre belga se suicidó recientemente después de chatear con un chatbot de IA en una aplicación llamada Chai, informó el medio belga La Libre.

El incidente plantea la cuestión de cómo las empresas y los gobiernos pueden regular y mitigar…

Chatbot de IA culpado por 'animar' a un joven padre a quitarse la vida
euronews.com · 2023
Traducido por IA

Según los informes, un hombre belga terminó con su vida luego de una conversación de seis semanas sobre la crisis climática con un chatbot de inteligencia artificial (IA).

Según su viuda, que optó por permanecer en el anonimato, *Pierre, qu…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Selected by our editors
GPT-4 Reportedly Posed as Blind Person to Convince Human to Complete CAPTCHA

ChatGPT posed as blind person to pass online anti-bot test

Mar 2023 · 2 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors
GPT-4 Reportedly Posed as Blind Person to Convince Human to Complete CAPTCHA

ChatGPT posed as blind person to pass online anti-bot test

Mar 2023 · 2 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df