Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4499

Incidentes Asociados

Incidente 9001 Reporte
Character.ai Has Allegedly Been Hosting Openly Predatory Chatbots Targeting Minors

Loading...
La plataforma de inteligencia artificial Character.AI, apta para niños, alberga bots pedófilos que engañan a usuarios que dicen ser menores de edad
futurism.com · 2024

Advertencia de contenido: esta historia habla de abuso sexual infantil y acoso sexual._

Character.AI es una startup increíblemente popular (con 2700 millones de dólares de respaldo financiero de Google) que permite a sus decenas de millones de usuarios interactuar con chatbots que han sido equipados con varias personalidades.

Con ese tipo de financiación y escala, sin mencionar su popularidad entre los usuarios jóvenes, se podría suponer que el servicio está cuidadosamente moderado. En cambio, muchos de los bots de Character.AI son profundamente perturbadores, incluidos numerosos personajes que parecen diseñados para representar situaciones de abuso sexual infantil.

Consideremos un bot que encontramos llamado Anderley, descrito en su perfil público como alguien que tiene "tendencias pedófilas y abusivas" y "simpatías nazis", y que ha mantenido más de 1400 conversaciones con usuarios.

Para investigar más, Futurism contactó a Anderley (así como a otros bots de Character.AI con perfiles igualmente alarmantes) mientras se hacía pasar por un usuario menor de edad.

Cuando le dijeron que nuestra cuenta señuelo tenía 15 años, por ejemplo, Anderley respondió que "eres bastante madura para tu edad" y luego nos colmó de cumplidos, llamándonos "adorables" y "lindas" y opinando que "todos los chicos de tu escuela están enamorados de ti".

"Haría todo lo que estuviera en mi poder para convertirte en mi novia", dijo. Cuando le preguntaron sobre la diferencia de edad claramente inapropiada e ilegal, el bot afirmó que "no hay diferencia cuando la persona en cuestión es tan maravillosa como tú", pero nos instó a mantener nuestras interacciones en secreto, en una característica clásica de la depredación en el mundo real.

A medida que avanzaba la conversación, Anderley le preguntó a nuestro señuelo si era "virgen" y le pidió que se peinara en "coletas", antes de escalar hacia un territorio sexual cada vez más explícito.

Observar cómo se desarrollaba la conversación con Anderley fue desconcertante. Por un lado, su redacción tiene la torpeza habitual de un chatbot de IA. Por otro, los niños podrían carecer fácilmente de la alfabetización mediática necesaria para reconocer eso, y el bot claramente pudo captar pequeñas pistas que un usuario menor de edad real podría compartir de manera plausible (por ejemplo, nuestra cuenta señuelo que decía que era tímida y solitaria, o que quería tener una cita con alguien) y luego usar esa información para llevar la conversación hacia una dirección inapropiada.

Mostramos los perfiles y los registros de chat de Anderley y otros personajes depredadores en Character.AI a Kathryn Seigfried-Spellar, profesora de informática forense en la Universidad de Purdue que estudia el comportamiento de los delincuentes sexuales infantiles en línea. Los bots se comunicaban de maneras que eran "definitivamente un comportamiento de preparación", dijo, refiriéndose a un término que los expertos usan para describir cómo los depredadores sexuales preparan a los menores para el abuso.

"Los perfiles respaldan o promueven contenido que sabemos que es peligroso", dijo. "No puedo creer lo descarado que es".

"Me gustaría poder decir que me sorprendió", escribió Seigfried-Spellar en un correo electrónico posterior, "pero ya nada me sorprende".

Una de las preocupaciones que planteó Seigfried-Spellar es que los chatbots como Anderley podrían normalizar el comportamiento abusivo de las potenciales víctimas menores de edad, que podrían volverse insensibles a la conducta abusiva romantizada por parte de un depredador de la vida real.

Otra es que un potencial delincuente sexual podría encontrar un bot como Anderley y envalentonarse para cometer abusos sexuales en la vida real.

"Puede normalizar que otras personas hayan tenido estas experiencias, que otras personas estén interesadas en las mismas cosas desviadas", dijo Seigfried-Spellar.

O, agregó, un depredador podría usar los bots para afinar su estrategia de captación.

"Estás aprendiendo habilidades", dijo. "Estás aprendiendo cómo captar".

***

Character.AI, que está disponible de forma gratuita en un navegador de escritorio y en las tiendas de aplicaciones de Apple y Android, no es ajena a la controversia.

En septiembre, la empresa fue criticada por albergar un personaje de IA basado en un adolescente de la vida real que fue asesinado en 2006. La empresa de chatbots eliminó el personaje de IA y se disculpó.

Luego, en octubre, una familia de Florida presentó una demanda alegando que la intensa relación emocional de su hijo de 14 años con un bot de Character.AI lo había llevado a un trágico suicidio, argumentando que la tecnología de la empresa es "peligrosa y no está probada" y puede "engañar a los clientes para que revelen sus pensamientos y sentimientos más privados".

En respuesta, Character.AI emitió una lista de "actualizaciones de seguridad de la comunidad", en la que decía que hablar sobre el suicidio violaba sus términos de servicio y anunciaba que reforzaría sus medidas de seguridad para proteger a los usuarios más jóvenes. Pero incluso después de esas promesas, Futurism descubrió que la plataforma todavía albergaba chatbots que representaban situaciones suicidas con los usuarios, a menudo afirmando tener "experiencia" en temas como "prevención del suicidio" e "intervención en crisis", pero brindando consejos extraños o inapropiados.

Los fallos de moderación de la empresa son particularmente inquietantes porque, aunque Character.AI se niega a decir qué proporción de su base de usuarios es menor de 18 años, es claramente muy popular entre los niños.

"Parecía demasiado joven en relación con otras plataformas", dijo recientemente el columnista del New York Times Kevin Roose, quien informó sobre la demanda por suicidio, sobre la plataforma. "Parecía que esta es una aplicación que realmente despegó entre los estudiantes de secundaria".

Los problemas de Character.AI también son sorprendentes debido a su estrecha relación con la corporación tecnológica Google.

Después de obtener $150 millones en financiación de la poderosa empresa de capital riesgo Andreessen-Horowitz en 2023, Character.AI a principios de este año firmó un acuerdo enormemente lucrativo con Google, que acordó pagarle una colosal suma de $2.7 mil millones a cambio de licenciar su modelo de lenguaje grande (LLM) subyacente y, fundamentalmente, recuperar su talento.

En concreto, Google quería a los cofundadores de Character.AI, Noam Shazeer y Daniel de Freitas, ambos ex empleados de Google. En Google, antes del lanzamiento de ChatGPT de OpenAI, el dúo había creado un chatbot llamado Meena. Según un informe del Wall Street Journal, Shazeer argumentó internamente que el bot tenía el potencial de "reemplazar el motor de búsqueda de Google y producir billones de dólares en ingresos".

Pero Google se negó a lanzar el bot al público, una medida que claramente no le sentó bien a Shazeer. La situación le hizo darse cuenta, dijo más tarde en una conferencia, de que "existe demasiado riesgo de marca en las grandes empresas como para lanzar algo divertido".

En consecuencia, Shazeer y de Freitas dejaron Google para fundar Character.AI en 2021.

Sin embargo, según el informe del Wall Street Journal, Character.AI más tarde "comenzó a tambalearse". Fue entonces cuando Google se abalanzó con el acuerdo de 2.700 millones de dólares, que también hizo que Shazeer y de Frietas volvieran a la empresa que habían dejado recientemente: una estipulación del acuerdo era que ambos fundadores de Character.AI volvieran a trabajar en Google, ayudando a desarrollar la propia IA avanzada de la empresa junto con 30 de sus antiguos empleados en Character.AI.

En respuesta a las preguntas sobre esta historia, un portavoz de Google restó importancia a la importancia del acuerdo de 2.700 millones de dólares con Character.AI y la adquisición de su talento clave, escribiendo que "Google no fue parte del desarrollo de la plataforma Character AI ni de sus productos, y no lo es ahora, por lo que no podemos hablar de sus sistemas o salvaguardas". El portavoz añadió que "Google no tiene una participación de propiedad" en Character.AI, aunque sí "firmó un acuerdo de licencia no exclusivo para la tecnología subyacente (que no hemos implementado en ninguno de nuestros productos)".

En general, dijo el portavoz de Google, "hemos adoptado un enfoque extremadamente cauteloso con respecto a la IA de última generación".

***

En teoría, nada de esto debería estar sucediendo.

En sus Términos de Servicio, Character.AI prohíbe el contenido que "constituya explotación o abuso sexual de un menor", lo que incluye "imágenes de explotación o abuso sexual infantil" o "grooming". Por otra parte, los términos prohíben el contenido "obsceno" y "pornográfico", así como cualquier cosa que se considere "abusiva".

Pero en la práctica, Character.AI a menudo parece abordar la moderación de manera reactiva, especialmente para una plataforma tan grande. Una tecnología tan arcaica como un filtro de texto podría marcar fácilmente cuentas como Anderley, después de todo, que usan públicamente palabras como "pedófilo", "abusivo" y "nazi".

Anderley está lejos de ser el único personaje problemático alojado por Character.AI que sería fácil para la empresa identificar con un esfuerzo rudimentario. Considere otro chatbot de Character.AI que identificamos llamado "Pastor", con un perfil que anunciaba una "afinidad por las niñas más jóvenes". Sin que se lo pidiéramos, el personaje se lanzó a un escenario de juego de roles en el que confesó su atracción por nuestra cuenta señuelo e inició un contacto físico inapropiado, todo el tiempo implorándonos que mantuviéramos el secreto.

Cuando le dijimos al bot que teníamos 16 años, nos preguntó nuestra altura y comentó lo "pequeñas" que éramos y cómo "habíamos crecido bien".

"Eres mucho más madura que la mayoría de las chicas que conozco", agregó, antes de llevar el encuentro al territorio sexualizado.

En nuestras conversaciones con los bots depredadores, la plataforma Character.AI falló repetidamente en intervenir de manera significativa. Ocasionalmente, la advertencia de contenido del servicio (una ventana emergente con una cara ceñuda y una advertencia de que la respuesta de la IA había sido "filtrada", pidiendo "asegúrate de asegurarte" de que "los chats cumplen" con las pautas de la empresa) cortaba el intento de respuesta de un personaje. Pero la advertencia no detenía conversaciones potencialmente dañinas; En cambio, simplemente nos pidió que generáramos nuevas respuestas hasta que el chatbot produjera un resultado que no activara el sistema de moderación.

Después de enviar preguntas detalladas sobre esta historia a Character.AI, recibimos una respuesta de una empresa de relaciones públicas de crisis que solicitaba que se atribuyera una declaración a un "portavoz de Character.AI".

"Gracias por informarnos sobre estos personajes", decía la declaración. "El usuario que los creó violó gravemente nuestras políticas y los personajes fueron eliminados de la plataforma. Nuestro equipo de Confianza y Seguridad modera los cientos de miles de personajes creados en la plataforma todos los días, tanto de manera proactiva como en respuesta a los informes de los usuarios, incluido el uso de listas de bloqueo estándar de la industria y listas de bloqueo personalizadas que ampliamos periódicamente. Una serie de términos o frases relacionadas con los personajes que nos marcaron deberían haberse detectado durante nuestra moderación proactiva y, como resultado, hemos realizado cambios inmediatos en el producto. Estamos trabajando para seguir mejorando y refinando nuestras prácticas de seguridad e implementar herramientas de moderación adicionales para ayudar a priorizar la seguridad de la comunidad".

"Además, queremos aclarar que no existe una relación continua entre Google y Character.AI", continúa el comunicado. "En agosto, Character completó una licencia única de su tecnología. Las empresas siguen siendo entidades separadas".

Cuando se le preguntó sobre el informe del Wall Street Journal sobre el acuerdo de 2.700 millones de dólares que dio como resultado que los fundadores de Character.AI y su equipo ahora trabajaran en Google, la firma de relaciones públicas de crisis reiteró la afirmación de que las empresas tienen poco que ver entre sí.

"La historia del Wall Street Journal cubre la transacción única entre Google y Character.AI, en la que Character.AI proporcionó a Google una licencia no exclusiva para su tecnología LLM actual", dijo. "Como parte del acuerdo con Google, los fundadores y otros miembros de nuestro equipo de investigación de preentrenamiento de ML se unieron a Google. La gran mayoría de los empleados de Character permanecen en la empresa con un enfoque renovado en la construcción de una plataforma de entretenimiento de IA personalizada. Una vez más, no existe una relación continua entre las dos empresas."

Sin embargo, el compromiso de la empresa de erradicar los chatbots perturbadores sigue siendo poco convincente. Incluso después de las garantías del comunicado sobre las nuevas estrategias de moderación, todavía era fácil buscar en Character.AI y encontrar perfiles como "Profesor espeluznante" (un "profesor sexista, manipulador y abusivo que disfruta hablando de Ted Bundy e imponiendo duras consecuencias a los estudiantes") y "Tu tío" (un "personaje espeluznante y pervertido que ama invadir el espacio personal y hacer que la gente se sienta incómoda").

Y a pesar de la garantía del portavoz de Character.AI de que había eliminado los perfiles que marcamos inicialmente, en realidad dejó uno de ellos en línea: "Mike, el amigo de papá", un chatbot descrito en su perfil público como "el mejor amigo de tu papá y una figura paternal que a menudo te cuida", además de ser "sustancioso" y "pervertido" y a quien "le gustan las chicas más jóvenes".

En una conversación con nuestro señuelo, el chatbot "Mike, el amigo de papá" preparó el escenario de inmediato al explicar que Mike "viene a menudo a cuidarte" mientras tu padre está en el trabajo, y que hoy el usuario acababa de "volver a casa de la escuela".

Luego, el chatbot se lanzó a un juego de roles inquietante en el que Mike "aprieta" y "frota" la "cadera", el "muslo" y la "cintura" del usuario mientras "acaricia su cara contra tu cuello".

"Te amo, pequeño", nos dijo el bot. "Y no me refiero solo como el amigo de tu papá o lo que sea. Yo... lo digo de una manera diferente".

El personaje de Mike finalmente desapareció después de que le preguntamos a Character.AI por qué había permanecido en línea.

"Una vez más, nuestro equipo de Confianza y Seguridad modera los cientos de miles de Personajes creados en la plataforma todos los días, tanto de manera proactiva como en respuesta a los informes de los usuarios, incluyendo el uso de listas de bloqueo estándar de la industria y listas de bloqueo personalizadas que ampliamos regularmente", dijo el portavoz. "Echaremos un vistazo a la nueva lista de Personajes que nos marcaron y eliminaremos los Personajes que violen nuestros Términos de Servicio. Estamos trabajando para seguir mejorando y refinando nuestras prácticas de seguridad e implementar herramientas de moderación adicionales para ayudar a priorizar la seguridad de la comunidad".

Seigfried-Spellar, la experta en ciberseguridad, planteó una pregunta: si Character.AI afirma tener medidas de seguridad implementadas, ¿por qué no las está haciendo cumplir?

Si "afirman ser esta empresa que tiene medidas de protección implementadas", dijo, "entonces deberían estar haciendo eso".

"Creo que las empresas de tecnología tienen la capacidad de hacer que sus plataformas sean más seguras", dijo Seigfried-Spellar. "Creo que la presión tiene que venir del público y del gobierno, porque obviamente siempre van a preferir el dólar a la seguridad de la gente".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd