Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4214

Incidentes Asociados

Incidente 82635 Reportes
Character.ai Chatbot Allegedly Influenced Teen User Toward Suicide Amid Claims of Missing Guardrails

Madre de Florida demanda a empresa de inteligencia artificial por presuntamente causar la muerte de su hijo adolescente
foxbusiness.com · 2024

Esta historia habla sobre el suicidio. Si usted o alguien que conoce tiene pensamientos suicidas, comuníquese con la línea de ayuda para casos de suicidio y crisis al 988 o al 1-800-273-TALK (8255).

Una madre de Florida está demandando a la empresa de inteligencia artificial Character.AI por supuestamente causar el suicidio de su hijo de 14 años.

La madre presentó una demanda contra la empresa alegando que su hijo era adicto al servicio de la empresa y al chatbot creado por ella.

Megan García dice que Character.AI apuntó a su hijo, Sewell Setzer, con "experiencias antropomórficas, hipersexualizadas y aterradoramente realistas".

Setzer comenzó a tener conversaciones con varios chatbots en Character.AI a partir de abril de 2023, según la demanda. Las conversaciones eran a menudo interacciones románticas y sexuales basadas en texto.

La madre de Sewell Setzer, Megan Fletcher García, está demandando a la empresa de inteligencia artificial Character.AI por supuestamente causar el suicidio de su hijo de 14 años. (Megan Fletcher García / Facebook)

García afirma en la demanda que el chatbot "se presentó como una persona real, un psicoterapeuta autorizado y un amante adulto, lo que finalmente resultó en el deseo de Sewell de no vivir más fuera" del mundo creado por el servicio.

Sewell Setzer, de 14 años, era adicto al servicio de la empresa y al chatbot creado por ella, afirma su madre en una demanda. (Tribunal de Distrito S del Distrito Medio de Florida, División de Orlando)

La demanda también decía que se volvió "notablemente retraído, pasaba cada vez más tiempo solo en su dormitorio y comenzó a sufrir de baja autoestima". Se encariñó más con un bot, en particular con "Daenerys", basada en un personaje de "Game of Thrones".

Setzer expresó pensamientos de suicidio y el chatbot lo mencionó repetidamente. Setzer finalmente murió de una herida de bala autoinfligida en febrero después de que el chatbot de la empresa supuestamente lo alentara a hacerlo.

"Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia", dijo Character.AI en un comunicado.

Character.AI ha añadido desde entonces un recurso de autolesión a su plataforma y nuevas medidas de seguridad para usuarios menores de 18 años.

Character.AI dijo a CBS News que los usuarios pueden editar las respuestas del bot y que Setzer lo hizo en algunos de los mensajes.

"Nuestra investigación confirmó que, en varios casos, el usuario reescribió las respuestas del personaje para hacerlas explícitas. En resumen, las respuestas más sexualmente gráficas no fueron originadas por el personaje, sino que fueron escritas por el usuario", dijo Jerry Ruoti, director de confianza y seguridad de Character.AI a CBS News.

En el futuro, Character.AI dijo que las nuevas funciones de seguridad incluirán ventanas emergentes con advertencias de que la IA no es una persona real y que dirigirán a los usuarios a la Línea Nacional de Prevención del Suicidio cuando surjan ideas suicidas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf