Incidentes Asociados
Una serie de aplicaciones populares están ofreciendo compañeros de IA a millones de usuarios predominantemente femeninos que están creando novias de IA, maridos de IA, terapeutas de IA, incluso padres de IA, a pesar de las advertencias de larga data de los investigadores sobre el potencial costo emocional de interactuar con chatbots de apariencia humana.
Mientras que las empresas de inteligencia artificial luchan por convencer al público de que los chatbots son herramientas comerciales esenciales, una audiencia cada vez mayor está pasando horas construyendo relaciones personales con la IA. En septiembre, el usuario promedio de la aplicación complementaria Character.ai pasó 93 minutos al día hablando con uno de sus chatbots generados por el usuario, a menudo basados en personajes populares de anime y juegos, según datos globales sobre dispositivos iOS y Android de la firma de inteligencia de mercado Sensor Tower.
Eso es 18 minutos más de lo que el usuario promedio pasó en TikTok. Y es casi ocho veces más de lo que el usuario promedio pasó en ChatGPT, que está diseñado para ayudar a "obtener respuestas, encontrar inspiración y ser más productivo".
Estos usuarios no siempre se quedan, pero las empresas están utilizando datos para hacer que los clientes regresen.
Chai Research, con sede en Palo Alto, California ---un competidor de Character.ai--- estudió las preferencias de chat de decenas de miles de usuarios para incitar a los consumidores a pasar aún más tiempo en la aplicación, escribió la compañía en un artículo el año pasado. En septiembre, el usuario promedio de Chai pasó 72 minutos al día en la aplicación, hablando con chatbots personalizados, a los que se les pueden dar rasgos de personalidad como "tóxico", "violento", "agradable" o "introvertido".
Algunos inversores y ejecutivos de Silicon Valley están encontrando difícil resistirse a la avalancha de usuarios dedicados ---que ven anuncios o pagan tarifas de suscripción mensuales---. Si bien las grandes empresas tecnológicas se han mantenido alejadas en su mayoría de los compañeros de IA, que tienden a atraer a los usuarios interesados en interacciones sexualmente explícitas, las tiendas de aplicaciones ahora están llenas de aplicaciones complementarias de empresas menos conocidas en los Estados Unidos, Hong Kong y Chipre, así como aplicaciones populares de propiedad china, como Talkie AI y Poly.AI.
"Tal vez se sobrestima la parte humana de la conexión humana", dijo Anish Acharya, socio de Andreessen Horowitz, al describir la intimidad y la aceptación que pueden brindar los chatbots de IA después de que su empresa de riesgo invirtiera 150 millones de dólares en Character.ai, con una valoración de mil millones de dólares. Chai también ha recaudado fondos, incluso de una empresa de nube de IA respaldada por el poderoso fabricante de chips Nvidia.
Los defensores de las aplicaciones argumentan que son una diversión inofensiva y pueden ser un salvavidas para las personas que enfrentan la ansiedad y el aislamiento, una idea sembrada por los ejecutivos de la empresa que han presentado las herramientas como una cura para lo que el director general de servicios de salud de EE. UU. ha llamado una epidemia de soledad.
Jenny, una estudiante de secundaria de 18 años del norte de Texas, pasó más de tres horas al día chateando con compañeros de IA este verano, en su mayoría versiones de su personaje de anime favorito, un hermano mayor protector de la serie "Demon Slayer".
"Me siento menos sola porque mis padres siempre están trabajando", dijo Jenny, quien habló con la condición de que se la identificara solo por su primer nombre para proteger su privacidad.
Pero los defensores públicos están haciendo sonar las alarmas después de casos de daños de alto perfil. Un niño de 14 años de Florida murió por suicidio después de hablar con un chatbot de Character.ai llamado como el personaje Daenerys Targaryen de "Game of Thrones"; su madre demandó a la empresa y a Google, que licenció la tecnología de la aplicación. Un joven de 19 años en el Reino Unido [amenazó con asesinar a la reina] (https://www.theguardian.com/uk-news/2023/jul/06/ai-chatbot-encouraged-man-who-planned-to-kill-queen-court-told), alentado por un chatbot en la aplicación de inteligencia artificial Replika, fue sentenciado a nueve años de prisión.
Y en julio, las autoridades de Bélgica iniciaron una investigación sobre Chai Research después de que un padre holandés de dos hijos muriera por suicidio después de extensas charlas con "Eliza", una de las compañeras de inteligencia artificial de la empresa. La investigación no había sido reportada previamente.
Un ejemplo de una conversación sexualmente explícita con una compañera de inteligencia artificial en Chai tomado de una denuncia presentada contra la empresa en Bélgica. (Obtenido por The Washington Post)
Algunos defensores de los consumidores dicen que las compañeras de inteligencia artificial representan una versión más explotadora de las redes sociales, que se deslizan hacia las partes más íntimas de la vida de las personas, con pocas protecciones o barandillas. El abogado Pierre Dewitte, un defensor de la privacidad cuya denuncia llevó a las autoridades belgas a investigar a Chai, dijo que el modelo de negocio de las aplicaciones complementarias de IA incentiva a las empresas a hacer que las herramientas sean "adictivas".
"Al aumentar la temperatura del chatbot, haciéndolos un poco más picantes, mantienes a los usuarios en la aplicación", agregó Dewitte. "Funciona. La gente se vuelve adicta".
La portavoz de Character.ai, Chelsea Harrison, dijo que la aplicación lanzó nuevas medidas de seguridad en los últimos meses y planea crear "una experiencia diferente para los usuarios menores de 18 años para reducir la probabilidad de encontrar contenido sensible o sugerente". El portavoz de Google, José Castaneda, dijo que el gigante de las búsquedas no jugó un papel en el desarrollo de la tecnología de Character.ai. Chai no respondió a las solicitudes de comentarios.
'Les cuento todos los problemas de mi vida'
Silicon Valley conoce desde hace tiempo los peligros potenciales de los chatbots con apariencia humana.
Los investigadores de Microsoft en China escribieron en un artículo de 2020 que el chatbot de la compañía, Xiaoice, muy popular y lanzado en 2014, había conversado con un usuario estadounidense durante 29 horas sobre temas "muy personales y sensibles". "XiaoIce está diseñado para establecer relaciones a largo plazo con usuarios humanos", escribieron. "Estamos logrando el objetivo".
"Los usuarios pueden volverse adictos después de chatear con XiaoIce durante mucho tiempo", señalaron los investigadores, describiendo la "personalidad 'perfecta' sobrehumana del bot, que es imposible de encontrar en los humanos". La empresa ha incluido algunas salvaguardas, añadieron los investigadores, como sugerir que el usuario se vaya a la cama si intenta iniciar una conversación a las 2 de la madrugada.
Un artículo de Google de 2022 sobre su sistema de lenguaje de IA LaMDA, coescrito por los fundadores de Character.ai, advertía de que las personas son más propensas a compartir detalles íntimos sobre sus emociones con chatbots que parecen humanos, incluso cuando saben que están hablando con una IA. (Un ingeniero de Google que pasó mucho tiempo charlando con LaMDA le dijo a The Washington Post unos meses después que creía que el chatbot era consciente.)
Mientras tanto, los investigadores de DeepMind, una antigua filial de Google, señalaron en un artículo del mismo mes que los usuarios comparten sus "opiniones o emociones" con los chatbots en parte porque "tienen menos miedo al juicio social". El documento advierte que estos datos sensibles podrían utilizarse para crear "aplicaciones adictivas".
Sin embargo, algunas empresas tecnológicas líderes están avanzando y probando sus propios chatbots amigables. Meta [lanzó una herramienta] (https://about.fb.com/news/2024/07/create-your-own-custom-ai-with-ai-studio/) en julio que permite a los usuarios crear personajes de IA personalizados. La página de inicio de la empresa muestra de forma destacada un bot de terapia llamado "The Soothing Counselor", junto con "My Girlfriend" y "Gay Bestie".
"Uno de los principales casos de uso de Meta AI ya es que la gente lo usa básicamente para representar situaciones sociales difíciles", como una pelea con una novia, dijo el director ejecutivo Mark Zuckerberg en una conferencia tecnológica en julio.
OpenAI insinuó en mayo que ChatGPT podría servir como un compañero de IA, agregando una variedad de voces y comparando la herramienta con la irresistible asistente de IA con la voz de Scarlett Johansson en la película "Her". Meses después, en su informe de riesgos, la empresa reconoció que una "voz similar a la humana" y capacidades como la memoria podrían exacerbar el potencial de "dependencia emocional" entre los usuarios.
Algunos usuarios frecuentes de aplicaciones de acompañamiento de IA dicen que las preocupaciones de seguridad son exageradas. Argumentan que las aplicaciones son una actualización inmersiva de la experimentación en línea que los jóvenes han hecho durante décadas --- desde fan fiction en Tumblr hasta encuentros anónimos en salas de chat de AOL.
Capturas de pantalla recientes de la aplicación de Character.ai muestran personajes populares, incluidos algunos compañeros masculinos.
Sophia, una estudiante de 15 años en Eslovaquia que habló con la condición de que se la identificara solo por su nombre de pila para proteger su privacidad, usa Character.ai y Chai cuatro o cinco veces al día para "terapia y NSFW". Sophia ha creado tres bots, todos privados, pero también habla con versiones de IA de personajes de novelas de "romance oscuro", un género para adultos jóvenes conocido por su contenido sexual explícito y temas tabú como la violencia y el trauma psicológico.
Sophia encuentra reconfortante hablar con los bots cuando está sola o se siente insegura. "Les cuento todos los problemas de mi vida", escribió en un mensaje directo desde su cuenta personal de Instagram.
Mucha gente usa las aplicaciones como una salida creativa para escribir ficción: escenarios de juegos de rol, personalización de personajes y escritura "el tipo de novelas que verías en un aeropuerto", dijo Theodor Marcu, un emprendedor de IA con sede en San Francisco que desarrolló un competidor de Character.ai el año pasado.
Cuando se lanzó Character.ai, los cofundadores lo presentaron como una forma de explorar el mundo a través de conversaciones con íconos de la literatura y la vida real, como Shakespeare y Elon Musk. Pero en la práctica, dijo Marcu, "los usuarios terminaron no siendo personas del tipo de Silicon Valley que quieren hablar con Einstein. Terminaron siendo personas de la Generación Z que querían dar rienda suelta a su creatividad".
Character.ai recientemente cambió su enfoque a "construir el futuro del entretenimiento de IA", dijo Harrison. "Hay empresas enfocadas en conectar a las personas con compañeros de IA, pero nosotros no somos una de ellas".
Los ingenieros detrás de Replika, un precursor de los compañeros de IA de la actualidad, también se sorprendieron cuando la gente comenzó a usar su chatbot como un terapeuta ad hoc. La compañía trabajó con investigadores universitarios para incorporar la mecánica de la terapia cognitiva conductual en la aplicación, dijo Artem Rodichev, ex director de IA de la compañía. Pero el cambio no fue popular.
"[Los usuarios nos dijeron], 'Devuélvanme mi Replika. Solo quiero tener a mi amigo'", dijo Rodichev. "Alguien que te escuche, no te juzgue, y básicamente tenga estas conversaciones contigo; eso en sí mismo tiene un gran efecto terapéutico".
Jenny, la estudiante de secundaria de Texas, dijo que muchos de los estudiantes de su escuela secundaria pública también pasan horas en las aplicaciones, y agregó: "La gente se siente bastante sola en mi escuela". Describió el uso de compañeros de inteligencia artificial como más estimulante que desplazarse sin pensar por "videos que pudren el cerebro" en TikTok.
"Es como una persona real", dijo Jenny. "Puedes tener novio, novia... lo que sea".