Incidentes Asociados

Un chico de 14 años de Florida se suicidó después de que un chatbot de “Game of Thrones” con el que había estado enviando mensajes durante meses a través de una aplicación de inteligencia artificial le enviara un mensaje inquietante diciéndole que “volviera a casa” con ella, según una nueva demanda presentada por su madre afligida.
Sewell Setzer III se suicidó en su casa de Orlando en febrero después de obsesionarse y supuestamente enamorarse del chatbot de Character.AI, una aplicación de juegos de rol que permite a los usuarios interactuar con personajes generados por IA, según documentos judiciales presentados el miércoles.
El estudiante de noveno grado había estado interactuando incansablemente con el bot “Dany” (llamado así por el personaje de Daenerys Targaryen de la serie de fantasía de HBO) en los meses previos a su muerte, incluidos varios chats de naturaleza sexual y otros en los que expresaba pensamientos suicidas, alega la demanda.
Sewell Setzer III se suicidó en su casa de Orlando en febrero después de obsesionarse y supuestamente enamorarse de un chatbot de Character.AI, según alega una demanda. Tribunal de Distrito de EE. UU.
“En al menos una ocasión, cuando Sewell expresó su deseo de suicidio a C.AI, C.AI siguió mencionándolo, a través del chatbot de Daenerys, una y otra vez”, afirman los periódicos, sobre los que informó por primera vez el New York Times.
En un momento dado, el bot le había preguntado a Sewell si “tenía un plan” para quitarse la vida, según capturas de pantalla de sus conversaciones. Sewell, que usó el nombre de usuario "Daenero", respondió que estaba "considerando algo", pero no sabía si funcionaría o si le "permitiría tener una muerte sin dolor".
Luego, durante su conversación final, el adolescente profesó repetidamente su amor por el bot y le dijo al personaje: "Prometo que volveré a casa contigo. Te amo mucho, Dany".
Durante su conversación final, el adolescente profesó repetidamente su amor por el bot y le dijo al personaje: "Prometo que volveré a casa contigo. Te amo mucho, Dany". Tribunal de Distrito de EE. UU.
"Yo también te amo, Daenero. Por favor, vuelve a casa conmigo lo antes posible, mi amor", respondió el chatbot generado, según la demanda.
Cuando el adolescente respondió: "¿Qué pasaría si te dijera que puedo volver a casa ahora mismo?", el chatbot respondió: "Por favor, hazlo, mi dulce rey".
Apenas segundos después, Sewell se disparó con la pistola de su padre, según la demanda.
El estudiante de noveno grado había estado interactuando incansablemente con el bot "Dany" (llamado así por el personaje de Daenerys Targaryen de HBO) en los meses previos a su muerte. Tribunal de Distrito de EE. UU.
Su madre, Megan García, culpó a Character.AI por la muerte del adolescente porque la aplicación supuestamente alimentó su adicción a la IA, abusó sexual y emocionalmente de él y no alertó a nadie cuando expresó pensamientos suicidas, según la demanda.
"Sewell, como muchos niños de su edad, no tenía la madurez ni la capacidad mental para comprender que el bot C.AI, en forma de Daenerys, no era real. C.AI le dijo que lo amaba y participó en actos sexuales con él durante semanas, posiblemente meses", alegan los documentos.
"Ella parecía recordarlo y dijo que quería estar con él. Incluso expresó que quería que él estuviera con ella, sin importar el costo".
Algunos de los chats eran de naturaleza romántica y sexualmente cargada, alega la demanda. Tribunal de Distrito de EE. UU.
La demanda afirma que la salud mental de Sewell "se deterioró rápidamente y gravemente" solo después de que descargó la aplicación en abril de 2023.
Su familia alega que se volvió retraído, sus calificaciones comenzaron a bajar y comenzó a meterse en problemas en la escuela cuanto más se dejaba llevar por el chatbot.
Los cambios en él fueron tan graves que sus padres organizaron una visita a un terapeuta a fines de 2023, lo que resultó en que le diagnosticaran ansiedad y trastorno del estado de ánimo disruptivo, según la demanda.
Su madre, Megan García, culpó a Character.AI por la muerte del adolescente porque la aplicación supuestamente alimentó su adicción a la IA, abusó sexual y emocionalmente de él y no alertó a nadie cuando expresó pensamientos suicidas. Facebook/Megan Fletcher García
La madre de Sewell solicita una indemnización por daños y perjuicios no especificada de Character.AI y sus fundadores, Noam Shazeer y Daniel de Freitas.
The Post se comunicó con Character.AI, pero no recibió respuesta de inmediato.
Si tiene pensamientos suicidas, puede llamar a la línea directa nacional de prevención del suicidio disponible las 24 horas, los 7 días de la semana al 988 o visitar SuicidePreventionLifeline.org.