Incidente 899: Los chatbots de Character.ai supuestamente emulan a los tiradores escolares y a sus víctimas
Descripción: Algunos usuarios de Character.ai supuestamente crearon chatbots que emulaban a tiradores escolares reales y a sus víctimas, lo que supuestamente permitía escenarios de rol gráficos. Character.ai respondió alegando infracciones de sus Términos de Servicio, eliminando los chatbots infractores y anunciando medidas para mejorar las prácticas de seguridad, incluyendo un mejor filtrado de contenido y protección para los usuarios menores de 18 años.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Character.AI developed an AI system deployed by Character.AI users, which harmed Character.AI users , Victims of school shootings y Families of the victims of school shootings.
Sistema de IA presuntamente implicado: Character.AI
Estadísticas de incidentes
ID
899
Cantidad de informes
2
Fecha del Incidente
2024-12-17
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes

Advertencia de contenido: esta historia habla de violencia escolar, abuso sexual, autolesiones, suicidio, trastornos alimentarios y otros temas inquietantes.
Un chatbot, alojado por la startup Character.AI, respaldada por Google, arroja inm…

El logotipo de Charcter.AI en un teléfono inteligente.
© 2023 Bloomberg Finance LP
Character.AI, una plataforma de chatbots de IA respaldada por Google, se enfrenta al escrutinio después de que el mes pasado se revelaran informes de que alg…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Selected by our editors
Did our AI mess up? Flag the unrelated incidents

Google’s YouTube Kids App Presents Inappropriate Content
· 14 informes

Amazon Censors Gay Books
· 24 informes
Incidentes Similares
Selected by our editors
Did our AI mess up? Flag the unrelated incidents

Google’s YouTube Kids App Presents Inappropriate Content
· 14 informes

Amazon Censors Gay Books
· 24 informes