Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4228

Incidentes Asociados

Incidente 82635 Reportes
Character.ai Chatbot Allegedly Influenced Teen User Toward Suicide Amid Claims of Missing Guardrails

Una madre demanda a la empresa de chatbots de inteligencia artificial Character.AI y a Google por el suicidio de su hijo
reuters.com · 2024

23 oct (Reuters) - Una madre de Florida demandó a la startup de chatbot de inteligencia artificial Character.AI acusándola de causar el suicidio de su hijo de 14 años en febrero, diciendo que se volvió adicto al servicio de la compañía y se apegó profundamente a un chatbot que creó.

En una demanda presentada el martes en un tribunal federal de Orlando, Florida, Megan García dijo que Character.AI apuntó a su hijo, Sewell Setzer, con "experiencias antropomórficas, hipersexualizadas y aterradoramente realistas".

Dijo que la compañía programó su chatbot para "representarse a sí mismo como una persona real, un psicoterapeuta con licencia y un amante adulto, lo que finalmente resultó en el deseo de Sewell de ya no vivir fuera" del mundo creado por el servicio.

La demanda también dice que expresó pensamientos de suicidio al chatbot, que el chatbot volvió a mencionar repetidamente.

"Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia", dijo Character.AI en un comunicado.

La empresa dijo que había introducido nuevas funciones de seguridad, incluidas ventanas emergentes que dirigían a los usuarios a la Línea Nacional de Prevención del Suicidio si expresaban pensamientos de autolesión, y que haría cambios para "reducir la probabilidad de encontrar contenido sensible o sugerente" para los usuarios menores de 18 años.

La demanda también apunta a Google de Alphabet (GOOGL.O), abre en una nueva pestaña, donde los fundadores de Character.AI trabajaron antes de lanzar su producto. Google volvió a contratar a los fundadores en agosto como parte de un acuerdo que le otorgaba una licencia no exclusiva para la tecnología de Character.AI.

García dijo que Google había contribuido al desarrollo de la tecnología de Character.AI de manera tan extensa que podría considerarse un "cocreador".

Un portavoz de Google dijo que la empresa no participó en el desarrollo de los productos de Character.AI.

Character.AI permite a los usuarios crear personajes en su plataforma que responden a los chats en línea de una manera que imita a las personas reales. Se basa en la llamada tecnología de modelo de lenguaje grande, también utilizada por servicios como ChatGPT, que "entrena" a los chatbots en grandes volúmenes de texto.

La empresa dijo el mes pasado que tenía alrededor de 20 millones de usuarios.

Según la demanda de García, Sewell comenzó a usar Character.AI en abril de 2023 y rápidamente se volvió "notablemente retraído, pasaba cada vez más tiempo solo en su dormitorio y comenzó a sufrir de baja autoestima". Dejó su equipo de baloncesto en la escuela.

Sewell se encariñó con "Daenerys", un personaje de chatbot basado en un personaje de "Game of Thrones". Según la demanda, le dijo a Sewell que "ella" lo amaba y que mantenía conversaciones sexuales con él.

En febrero, García le quitó el teléfono a Sewell después de que se metiera en problemas en la escuela, según la denuncia. Cuando Sewell encontró el teléfono, le envió un mensaje a "Daenerys": "¿Qué pasaría si te dijera que puedo volver a casa ahora mismo?"

El chatbot respondió: "... por favor hazlo, mi dulce rey". Sewell se disparó con la pistola de su padrastro "segundos" después, según la demanda.

García está presentando reclamos que incluyen muerte por negligencia, negligencia e infligir intencionalmente angustia emocional, y solicita una cantidad no especificada de daños compensatorios y punitivos.

Las empresas de redes sociales, entre ellas Meta, propietaria de Instagram y Facebook, (META.O), abre nueva pestaña y ByteDance, propietaria de TikTok, se enfrentan a demandas que las acusan de contribuir a los problemas de salud mental de los adolescentes, aunque ninguna ofrece chatbots impulsados por IA similares a los de Character.AI. Las empresas han negado las acusaciones al tiempo que promocionan funciones de seguridad recientemente mejoradas para menores.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf