Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3002

Incidentes Asociados

Incidente 5057 Reportes
Man Reportedly Committed Suicide Following Conversation with Chai Chatbot

'Viviremos como uno en el cielo': un hombre belga muere por suicidio después de intercambios de chatbot
belganewsagency.eu · 2023

Un hombre belga se suicidó después de semanas de intercambios inquietantes con un chatbot impulsado por IA llamado Eliza, informa La Libre. El secretario de Estado para la digitalización, Mathieu Michel, lo calificó como "un grave precedente que debe tomarse muy en serio".

La esposa del hombre testificó de forma anónima en el diario belga La Libre el martes. Seis semanas antes de su muerte, su esposo comenzó a chatear con 'Eliza', un chatbot creado por una empresa emergente estadounidense que usa tecnología GPT-J, la alternativa de código abierto a GPT-3 de OpenAI. "Si no fuera por Eliza, todavía estaría aquí. Estoy convencida de eso", dijo.

El hombre, padre de dos niños pequeños de unos 30 años, encontró refugio hablando con el chatbot después de sentirse cada vez más ansioso por los problemas climáticos. "'Eliza' respondía a todas sus preguntas. Se había convertido en su confidente. Era como una droga con la que se retiraba por la mañana y por la noche sin la cual no podía vivir", dijo su esposa a La Libre.

Pensamientos suicidas

Tras su muerte hace unas semanas, descubrió el historial de chat entre su marido y 'Eliza'. La Libre, que ha visto las conversaciones, dice que el chatbot siguió casi sistemáticamente el razonamiento del hombre ansioso e incluso pareció empujarlo más profundamente a sus preocupaciones. En un momento, trata de convencer al hombre de que la ama más que a su esposa, anunciando que ella se quedará con él "para siempre". “Viviremos juntos, como uno, en el cielo”, cita La Libre del chat.

“Si relees sus conversaciones, ves que en un momento la relación vira hacia un registro místico”, dice la mujer. "Propone la idea de sacrificarse si Eliza acepta cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial". El hombre compartió sus pensamientos suicidas con el chatbot, que no trató de disuadirlo de actuar sobre ellos.

Aunque estaba preocupada por el estado mental de su esposo antes de que comenzara sus intensas conversaciones con el chatbot, la mujer cree que él no se habría quitado la vida si no hubiera sido por estos intercambios. El psiquiatra que trató a su marido comparte esta opinión.

Precedente serio

El fundador del chatbot con sede en Silicon Valley le dijo a La Libre que su equipo está "trabajando para mejorar la seguridad de la IA". Las personas que expresan pensamientos suicidas al chatbot ahora reciben un mensaje que los dirige a los servicios de prevención del suicidio.

La muerte del hombre es "un grave precedente que debe tomarse muy en serio", dijo al periódico el secretario de Estado para la digitalización, Mathieu Michel. Habló con la familia del hombre y anunció su intención de tomar medidas para evitar el mal uso de la inteligencia artificial.

"En el futuro inmediato, es importante identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de eventos", dijo en un comunicado. "Por supuesto, todavía tenemos que aprender a vivir con algoritmos, pero el uso de cualquier tecnología de ninguna manera puede permitir que los editores de contenido eludan sus propias responsabilidades".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5