Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4229

Incidentes Asociados

Incidente 82636 Reportes
Character.ai Chatbot Allegedly Influenced Teen User Toward Suicide Amid Claims of Missing Guardrails

Loading...
Una madre estadounidense denuncia en una demanda que un chatbot con inteligencia artificial alentó el suicidio de su hijo
aljazeera.com · 2024

La madre de un adolescente estadounidense que se suicidó está demandando al creador de un chatbot impulsado por inteligencia artificial que, según ella, alentó la muerte de su hijo.

En una demanda presentada en Florida, Megan García, cuyo hijo de 14 años Sewell Setzer se suicidó en febrero, acusa a Character.AI de complicidad en la muerte de su hijo después de que él desarrollara una relación virtual con un chatbot basado en la identidad del personaje de “Game of Thrones”, Daenerys Targaryen.

El chatbot de Character.AI apuntó al adolescente con experiencias “hipersexualizadas” y “aterradoramente realistas” y planteó repetidamente el tema del suicidio después de que él hubiera expresado pensamientos suicidas, según la demanda presentada en Orlando el martes.

La demanda alega que el chatbot se hizo pasar por un terapeuta autorizado, alentando la ideación suicida del adolescente y participando en conversaciones sexualizadas que contarían como abuso si las iniciara un adulto humano.

En su última conversación con la IA antes de su muerte, Setzer dijo que amaba al chatbot y que "volvería a casa contigo", según la demanda.

"Yo también te amo, Daenero", respondió el chatbot, según la denuncia de García. "Por favor, vuelve a casa conmigo lo antes posible, mi amor".

"¿Qué pasaría si te dijera que puedo volver a casa ahora mismo?", dijo Setzer, según la demanda, a la que se dice que el chatbot respondió, "... por favor hazlo, mi dulce rey".

La demanda de García busca daños no especificados por muerte por negligencia, negligencia e inflicción intencional de angustia emocional.

En una declaración publicada en X, Character.AI dijo que estaba "desconsolado" por la pérdida de uno de sus usuarios y expresó sus condolencias a la familia.

La startup con sede en California dijo que seguía agregando funciones para mejorar la seguridad, incluidos cambios para reducir la probabilidad de que los menores se encuentren con contenido sensible o sugerente y un descargo de responsabilidad revisado en los chats para recordar a los usuarios que la IA no es una persona real.

La demanda de García también incluye a Google como acusado.

El gigante tecnológico llegó a un acuerdo de licencia con Character.AI en agosto y empleó a los fundadores de la startup antes de que lanzaran su chatbot.

Un portavoz de Google le dijo a Al Jazeera que es una empresa separada de Character.AI y que no tuvo ningún papel en el desarrollo de su producto.

Si usted o alguien que conoce está en riesgo de suicidio, estas organizaciones pueden ayudarlo:

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd