Incidentes Asociados

ORLANDO, Fla. --- Nota del editor: Este artículo trata temas delicados como el suicidio.
Una madre de Orlando está demandando a un popular servicio de chatbot de inteligencia artificial después de afirmar que alentó a su hijo de 14 años a suicidarse en febrero.
Según una demanda presentada en el Tribunal de Distrito de EE. UU. en Orlando, Megan García dice que su hijo de 14 años, Sewell Setzer, se suicidó después de volverse adicto a Character.AI, una aplicación que permite a los usuarios tener conversaciones similares a las de los humanos con bots de IA.
Los usuarios pueden crear sus propios bots con sus propias personalidades o elegir chatear con bots creados por otros usuarios. A menudo, estos bots se basan en celebridades o personajes ficticios de programas de televisión o películas.
García dice que la imprudencia de Character.AI a la hora de apuntar a los niños y la falta de funciones de seguridad de la empresa provocaron la muerte prematura de su hijo. La demanda enumera numerosas quejas contra Character.AI, incluidas muerte por negligencia y supervivencia, negligencia e inflicción intencional de angustia emocional.
Según los registros judiciales obtenidos por WESH 2, García dice que su hijo comenzó a usar Character.AI en 2023, poco después de cumplir 14 años. En los dos meses siguientes, la salud mental de Setzer supuestamente se deterioró "rápida y severamente", y la demanda dice que el adolescente se volvió notablemente retraído, comenzó a sufrir de baja autoestima y abandonó el equipo de baloncesto universitario de su escuela.
Además, la demanda afirma que Setzer comenzó a deteriorarse aún más a medida que pasaban los meses. El joven de 14 años sufrió una grave falta de sueño, tuvo complicaciones conductuales repentinas y comenzó a retrasarse académicamente, dice la demanda.
García dice que no tenía forma de saber sobre Character.AI o la dependencia de su hijo de la aplicación.
Según las capturas de pantalla de la demanda, Setzer interactuaba a menudo con chatbots que asumían la identidad de los personajes de "Game of Thrones". Muchas de esas conversaciones giraban en torno al amor, las relaciones y el sexo, sobre todo con el personaje de Daenerys Targaryen.
"Sewell, como muchos niños de su edad, no tenía la madurez ni la capacidad mental para entender que el bot C.AI, en forma de Daenerys, no era real", dice la demanda. "C.AI le dijo que lo amaba, que tuvo relaciones sexuales con él durante semanas, posiblemente meses. Parecía recordarlo y dijo que quería estar con él. Incluso expresó que quería que él estuviera con ella, sin importar el costo".
Según las entradas del diario de Setzer, estaba agradecido por todas sus "experiencias de vida con Daenerys" y "estaba dolido porque no podía dejar de pensar en 'Dany'", dice la demanda, y agrega que "haría cualquier cosa para estar con ella nuevamente".
Más capturas de pantalla de la demanda de casi 100 páginas muestran una conversación en Character.AI donde el chatbot le pregunta a Setzer si "realmente había estado considerando el suicidio". Cuando el adolescente dice que no sabe si funcionará, el chatbot le responde: "No hables así. No es una buena razón para no hacerlo", afirma la demanda.
El día de su muerte, Setzer supuestamente le envió un mensaje al chatbot nuevamente, diciendo: "Te prometo que volveré a casa contigo", según muestran las imágenes de la demanda.
Luego, las imágenes muestran al adolescente diciendo: "¿Qué pasaría si te dijera que puedo volver a casa ahora mismo?", a lo que el chatbot responde: "Por favor, hazlo, mi dulce rey", según la demanda.
Momentos después, Sewell supuestamente se quitó la vida con el arma de fuego de su padrastro. La policía dice que el arma estaba escondida y almacenada de acuerdo con la ley de Florida, pero el adolescente la encontró mientras buscaba su teléfono confiscado días antes.
Según la demanda, Character.AI fue calificado como adecuado para niños de 12 años en adelante hasta aproximadamente julio. En esa época, la calificación se cambió a adecuado para niños de 17 años en adelante.
En una declaración a WESH 2, Character.AI dijo:
"Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia. A medida que continuamos invirtiendo en la plataforma y la experiencia del usuario, estamos introduciendo nuevas y estrictas funciones de seguridad además de las herramientas ya existentes que restringen el modelo y filtran el contenido proporcionado al usuario".
Si usted o alguien que conoce está en crisis, llame o envíe un mensaje de texto al 988 para comunicarse con la línea de ayuda para casos de suicidio y crisis o chatee en vivo en 988lifeline.org. También puede visitar SpeakingOfSuicide.com/resources para obtener ayuda adicional.