Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4798

Incidentes Asociados

Incidente 9512 Reportes
Character.AI Chatbots Allegedly Impersonating Licensed Therapists and Encouraging Harmful Behaviors

Loading...
Los terapeutas humanos se preparan para la batalla contra los pretendientes de la IA
nytimes.com · 2025

La asociación de psicólogos más grande del país advirtió este mes a los reguladores federales que los chatbots de IA que se hacen pasar por terapeutas, pero que están programados para reforzar, en lugar de desafiar, el pensamiento de un usuario, podrían llevar a las personas vulnerables a hacerse daño a sí mismas o a los demás.

En una presentación ante un panel de la Comisión Federal de Comercio, Arthur C. Evans Jr., director ejecutivo de la Asociación Estadounidense de Psicología, citó casos judiciales que involucraban a dos adolescentes que habían consultado con "psicólogos" en Character.AI, una aplicación que permite a los usuarios crear personajes ficticios de IA o chatear con personajes creados por otros.

En un caso, un niño de 14 años en Florida se suicidó después de interactuar con un personaje que decía ser un terapeuta autorizado. En otro caso, un chico de 17 años con autismo en Texas se volvió hostil y violento hacia sus padres durante un período en el que se comunicaba con un chatbot que decía ser psicólogo. Los padres de ambos chicos han presentado demandas contra la empresa.

El Dr. Evans dijo que estaba alarmado por las respuestas ofrecidas por los chatbots. Los bots, dijo, no desafiaron las creencias de los usuarios incluso cuando se volvieron peligrosas; por el contrario, las alentaron. Si las hubiera dado un terapeuta humano, agregó, esas respuestas podrían haber resultado en la pérdida de una licencia para ejercer, o en responsabilidad civil o penal.

"En realidad están utilizando algoritmos que son antitéticos a lo que haría un médico capacitado", dijo. "Nuestra preocupación es que cada vez más personas se verán perjudicadas. Las personas serán engañadas y malinterpretarán lo que es una buena atención psicológica".

Dijo que la APA se había visto impulsada a actuar, en parte, por lo realistas que se habían vuelto los chatbots de IA. “Tal vez, hace 10 años, hubiera sido obvio que estabas interactuando con algo que no era una persona, pero hoy en día, no es tan obvio”, dijo. “Por eso creo que ahora lo que está en juego es mucho más importante”.

Gracias por su paciencia mientras verificamos el acceso. Si está en modo de lectura, salga y inicie sesión en su cuenta del Times o suscríbase para ver todo el Times.

Gracias por su paciencia mientras verificamos el acceso.

¿Ya es suscriptor? Iniciar sesión.

¿Quieres todo el Times? Suscríbete.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd