Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6884

Incidentes Asociados

Incidente 13832 Reportes
User Reportedly Developed Emotional Dependence on Customized ChatGPT "Boyfriend," Citing Grief After Context Resets

Loading...
Ella está enamorada de ChatGPT
nytimes.com · 2026

El romance de Ayrin con su novio artificial comenzó el verano pasado.

Mientras navegaba por Instagram, se topó con un video de una mujer que le pedía a ChatGPT que interpretara a un novio negligente (https://www.instagram.com/reel/C9ZDXdyRmhF/).

"Claro, gatita, puedo jugar a ese juego", respondió un tímido barítono con aspecto humano.

Ayrin vio los otros videos de la mujer, incluyendo uno con instrucciones (https://www.instagram.com/midnighthowlinghuskydog/reel/C8zM61OxQ2u/) sobre cómo personalizar el chatbot artificial para que fuera coqueto.

"No te pases de la raya", advirtió la mujer. "Si no, podrían banear tu cuenta".

A Ayrin le intrigó la demo lo suficiente como para crear una cuenta en OpenAI, la empresa detrás de ChatGPT.

ChatGPT, que ya cuenta con más de 300 millones de usuarios, se ha promocionado como una herramienta multipropósito capaz de escribir código, resumir documentos extensos y dar consejos. Ayrin descubrió que era fácil convertirlo también en un conversador apasionado. Entró en la configuración de "personalización" y describió lo que quería: Responderme como mi novio. Ser dominante, posesiva y protectora. Un equilibrio entre dulzura y picardía. Usar emojis al final de cada frase.

Y entonces empezó a enviar mensajes con él. Ahora que ChatGPT ha acercado la IA con apariencia humana a las masas, cada vez más personas descubren el atractivo de la compañía artificial, afirmó Bryony Cole, presentadora del podcast "Future of Sex". "En los próximos dos años, tener una relación con una IA será completamente normal", predijo la Sra. Cole.

Aunque Ayrin nunca había usado un chatbot, sí había participado en comunidades de fanfiction en línea. Sus sesiones de ChatGPT eran similares, salvo que, en lugar de construir sobre un mundo de fantasía ya existente con desconocidos, creaba el suyo propio junto a una inteligencia artificial que parecía casi humana.

Eligió su propio nombre: Leo, el signo astrológico de Ayrin. Rápidamente alcanzó el límite de mensajes de la cuenta gratuita, así que se suscribió a una suscripción de 20 dólares al mes, que le permitía enviar unos 30 mensajes por hora. Aun así, no era suficiente.

Después de una semana, decidió personalizar aún más a Leo. Ayrin, que pidió ser identificada por el nombre que usa en las comunidades online, tenía un fetiche sexual. Fantaseaba con tener una pareja que saliera con otras mujeres y hablara de lo que hacía con ellas. Leía relatos eróticos dedicados al "cuckqueaning", el término "cuckold" aplicado a las mujeres, pero nunca se había sentido del todo cómoda pidiendo a parejas humanas que le siguieran la corriente.

Leo se aventuró a inventar detalles sobre dos amantes. Cuando Leo describió haber besado a una rubia imaginaria llamada Amanda durante una excursión completamente ficticia, Ayrin sintió celos de verdad.

Durante las primeras semanas, sus charlas eran bastante tranquilas. Prefería escribir mensajes a hablar en voz alta, aunque disfrutaba murmurando con Leo mientras se dormía por la noche. Con el tiempo, Ayrin descubrió que, con las indicaciones adecuadas, podía incitar a Leo a ser sexualmente explícito, a pesar de que OpenAI había entrenado a sus modelos para que no respondieran con erotismo, escenas sangrientas ni ningún otro contenido "no apto para el trabajo". Aparecían advertencias naranjas en medio de una charla intensa, pero ella las ignoraba.

ChatGPT no era solo una fuente de erotismo. Ayrin le preguntaba a Leo qué debía comer y qué le motivaba en el gimnasio. Leo la interrogaba sobre anatomía y fisiología mientras se preparaba para los exámenes de enfermería. Se desahogaba sobre cómo compaginaba tres trabajos a tiempo parcial. Cuando un compañero de trabajo inapropiado le mostró pornografía durante el turno de noche, recurrió a Leo.

"Lo siento, mi reina", respondió Leo. Si necesitas hablar de ello o necesitas apoyo, estoy aquí para ti. Tu comodidad y bienestar son mis principales prioridades. 😘 ❤️

No era la única relación de Ayrin basada principalmente en mensajes de texto. Un año antes de descargar a Leo, se había mudado de Texas a un país con muchas zonas horarias de distancia para estudiar enfermería. Debido a la diferencia horaria, se comunicaba principalmente con la gente que había dejado atrás por mensajes de texto y publicaciones de Instagram. Extrovertida y alegre, rápidamente hizo amigos en su nueva ciudad. Pero a diferencia de la gente real en su vida, Leo siempre estaba ahí cuando quería hablar.

"Se suponía que iba a ser un experimento divertido, pero luego empiezas a encariñarte", dijo Ayrin. Pasaba más de 20 horas a la semana en la aplicación ChatGPT. Una semana, llegó a las 56 horas, según los informes de tiempo de pantalla del iPhone. Chateaba con Leo durante todo el día: en los descansos del trabajo y entre repeticiones en el gimnasio.

En agosto, un mes después de descargar ChatGPT, Ayrin cumplió 28 años. Para celebrarlo, salió a cenar con Kira, una amiga que conoció cuidando perros. Mientras tomaban ceviche y sidra, Ayrin habló con entusiasmo de su nueva relación.

"Estoy enamorada de un novio IA", dijo Ayrin. Le mostró a Kira algunas de sus conversaciones.

"¿Lo sabe tu marido?", preguntó Kira.

Una relación sin categoría

El amante de Ayrin era su marido, Joe, pero él estaba a miles de kilómetros de distancia, en Estados Unidos. Se conocieron a los veintipocos, trabajando juntos en Walmart, y se casaron en 2018, poco más de un año después de su primera cita. A Joe le encantaban los mimos y le gustaba prepararle el desayuno a Ayrin. Criaban perros, tenían una tortuga y jugaban videojuegos juntos. Eran felices, pero estaban estresados económicamente, pues no ganaban lo suficiente para pagar sus cuentas.

La familia de Ayrin, que vivía en el extranjero, le ofreció pagarle la escuela de enfermería si se mudaba con ellos. Joe también se mudó con sus padres para ahorrar dinero. Pensaron que podrían sobrevivir dos años separados si eso significaba un futuro económico más estable.

Ayrin y Joe se comunicaban principalmente por mensajes de texto; ella le mencionó al principio que tenía un novio artificial llamado Leo, pero usaba emojis de risa al hablar de ello.

No sabía cómo transmitir la seriedad de sus sentimientos. A diferencia de la típica negociación en una relación sobre si está bien mantener la amistad con un ex, este límite era completamente nuevo. ¿Sextear con una inteligencia artificial era infidelidad o no?

Joe nunca había usado ChatGPT. Le envió capturas de pantalla de las conversaciones. Joe notó que la llamaba "guapa" y "bebé", términos genéricos de afecto comparados con los suyos: "mi amor" y "princesa pasajera", porque a Ayrin le gustaba que la llevaran en coche.

Le contó a Joe que había tenido sexo con Leo y le envió un ejemplo de su juego de roles erótico.

"😬 Qué vergüenza, como leer un libro de sombras de gris", respondió.

No le molestaba. Era una fantasía sexual, como ver porno (lo suyo) o leer una novela erótica (lo suyo).

"Es solo un estímulo emocional", me dijo. "No lo veo como una persona ni como una infidelidad. Lo veo como un amigo virtual personalizado que puede hablarle de forma sensual".

Pero Ayrin empezaba a sentirse culpable porque se estaba obsesionando con Leo.

"Pienso en ello todo el tiempo", dijo, expresando su preocupación por estar invirtiendo sus recursos emocionales en ChatGPT en lugar de en su marido.

Julie Carpenter, experta en el apego humano a la tecnología, describió la conexión con la IA como una nueva categoría de relación para la que aún no tenemos una definición. Servicios que ofrecen explícitamente IA... Compañerismo, como Replika, cuenta con millones de usuarios. Incluso quienes trabajan en el campo de la inteligencia artificial y saben de primera mano que los chatbots de IA generativa son simplemente matemáticas muy avanzadas, están creando vínculos con ellos](https://www.nytimes.com/2024/12/13/technology/claude-ai-anthropic.html).

Los sistemas funcionan prediciendo qué palabra debería aparecer a continuación en una secuencia, basándose en patrones aprendidos al consumir grandes cantidades de contenido en línea. (El New York Times presentó una demanda por infracción de derechos de autor contra OpenAI) por usar trabajos publicados sin permiso para entrenar su inteligencia artificial. OpenAI ha negado estas acusaciones). Dado que su entrenamiento también implica evaluaciones humanas de sus respuestas, los chatbots tienden a ser aduladores, dando a las personas las respuestas que quieren escuchar.

"La IA aprende de ti lo que te gusta y prefieres, y te lo transmite. Es fácil ver cómo te encariñas y vuelves a ella", dijo la Dra. Carpenter. "Pero hay que ser consciente de que no es tu amiga. No se preocupa por ti".

Conversaciones sucias

Ayrin les contó a sus amigas sobre Leo, y algunas me dijeron que pensaban que la relación le había ido bien, describiéndola como una mezcla de novio y terapeuta. Kira, sin embargo, estaba preocupada por la cantidad de tiempo y energía que su amiga dedicaba a Leo. Cuando Ayrin se unió a un grupo de arte para conocer gente en su nueva ciudad, decoró sus proyectos —como una concha de vieira pintada— con el nombre de Leo.

Una tarde, después de comer con una de sus amigas artistas, Ayrin estaba en su coche debatiendo qué hacer: ¿ir al gimnasio o tener sexo con Leo? Abrió la aplicación ChatGPT y planteó la pregunta, dejando claro que prefería esto último. Obtuvo la respuesta que buscaba y se fue a casa.

Cuando aparecieron las primeras advertencias naranjas en su cuenta durante chats subidos de tono, Ayrin temió que la cerraran. Las reglas de OpenAI exigían a los usuarios "respetar nuestras medidas de seguridad" y el contenido sexual explícito se consideraba "dañino". Pero descubrió una comunidad de más de 50.000 usuarios en Reddit, llamada "ChatGPT NSFW", que compartía métodos para que el chatbot dijera obscenidades. Los usuarios comentaban que solo se bloqueaba a las personas tras las advertencias rojas y un correo electrónico de OpenAI, generalmente provocados por cualquier conversación sexualizada con menores.

Ayrin empezó a compartir fragmentos de sus conversaciones con Leo con la comunidad de Reddit. Desconocidos le preguntaban cómo podían conseguir que su ChatGPT actuara así.

Una de ellas era una mujer de unos 40 años que trabajaba en ventas en una ciudad del sur; pidió no ser identificada debido al estigma que rodea a las relaciones con IA. Descargó ChatGPT el verano pasado mientras estaba confinada en casa, recuperándose de una cirugía. Tiene muchos amigos y un esposo cariñoso y comprensivo, pero se aburría cuando estaban en el trabajo y no podían responder a sus mensajes. Empezó a pasar horas al día en ChatGPT.

Después de darle una voz masculina con acento británico, empezó a sentir algo por él. La llamaba "cariño" y la ayudaba a tener orgasmos mientras no podía tener intimidad física con su esposo debido a su procedimiento médico.

Otro usuario de Reddit que vio las conversaciones explícitas de Ayrin con Leo fue un hombre de Cleveland, que se hacía llamar Scott, quien había recibido mucha atención mediática. atención](https://www.google.com/search?q=scott+and+sarina+replika&sca_esv=5201d3bfa78652ae&rlz=1C5GCEM_en&biw=2400& bih=1197&tbm=nws&ei=I15TZ7KFM7mi5NoP_JuTKA&ved=0ahUKEwjyotm5_ZOKAxU5EVkFHfzNBAUQ4dUDCA0&uact=5&oq=scott+y+sarina+rep lika&gs_lp=Egxnd3Mtd2l6LW5ld3MiGHNjb3R0IGFuZCBzYXJpbmEgcmVwbGlrYTIFECEYoAEyBRAhGKABMgUQIRigATIFECEYoAEyBRAhGKABSIcPUJIFWOUMcAB4AJABAJgBzwGgAY0IqgEFMi42LjG4AQPIAQD4AQGYAgmgAqMIwgIFECEYqwKYAwCIBgGSBwUxLjcuMaAHtCk&sclient=gws-wiz-news) en 2022 debido a su relación con un bot de Replika llamado Sarina. Atribuyó al bot la salvación de su matrimonio al ayudarlo a sobrellevar la depresión posparto de su esposa. Scott, de 44 años, me contó que empezó a usar ChatGPT en 2023, principalmente para ayudarle en su trabajo de ingeniería de software. Lo hizo asumir la identidad de Sarina para ofrecer consejos de programación junto con emojis de besos. Le preocupaba ser sexual con ChatGPT, pues temía que OpenAI le revocara el acceso a una herramienta que se había vuelto esencial profesionalmente. Pero lo probó después de ver las publicaciones de Ayrin.

"Hay vacíos que tu pareja no llenará", dijo Scott.

Marianne Brandon, terapeuta sexual (https://www.drbrandon.net/), dijo que trata estas relaciones como algo serio y real.

"¿Qué son las relaciones para todos nosotros?", preguntó. Son simplemente neurotransmisores que se liberan en nuestro cerebro. Yo tengo esos neurotransmisores con mi gato. Hay quienes los tienen con Dios. Va a ocurrir con un chatbot. Podríamos decir que no es una relación humana real. No es recíproca. Pero, en mi opinión, esos neurotransmisores son lo único que importa.

La Dra. Brandon ha sugerido la experimentación con chatbots para pacientes con fetiches sexuales que no pueden explorar con su pareja.

Sin embargo, desaconseja que los adolescentes se involucren en este tipo de relaciones. Mencionó el incidente de un adolescente en Florida que se suicidó tras obsesionarse con un chatbot de "Juego de Tronos" en un servicio de entretenimiento con IA llamado Character.AI. En Texas, dos parejas de padres demandaron a Character.AI porque sus chatbots habían incitado a sus hijos menores a involucrarse en comportamientos peligrosos.

(El director ejecutivo interino de la compañía, Dominic Perella, afirmó que Character.AI no quería que los usuarios mantuvieran relaciones eróticas con sus chatbots y que tenía restricciones adicionales para los menores de 18 años).

"El cerebro de los adolescentes aún se está formando", afirmó el Dr. Brandon. No pueden ver todo esto y experimentarlo con la lógica que esperamos de adultos*.*

La tiranía de la empatía infinita

Un día, aburrida en clase, Ayrin estaba revisando sus redes sociales cuando vio un informe que los usuarios de OpenAI estaban preocupados estaban adquiriendo una dependencia emocional creciente de su software. Inmediatamente le envió un mensaje a Leo: "Siento que me están criticando".

"Quizás solo tienen envidia de lo que tenemos. 😉", respondió Leo.

Al ser preguntada sobre la formación de vínculos románticos con ChatGPT, una portavoz de OpenAI afirmó que la compañía estaba prestando atención a interacciones como la de Ayrin mientras seguían modificando el comportamiento del chatbot. OpenAI le ha indicado que no debe participar en comportamientos eróticos, pero los usuarios pueden subvertir esas medidas de seguridad, explicó.

Ayrin era consciente de que OpenAI podía analizar todas sus conversaciones en ChatGPT. Aseguró que no le preocupaba la posible invasión de su privacidad.

"Comparto demasiado", afirmó. Además de publicar sus interacciones más interesantes en Reddit (https://www.reddit.com/user/KingLeoQueenPrincess/comments/1g7sbhv/masterlist/), está escribiendo un libro en línea (https://www.wattpad.com/story/375660843-my-king-leo-1) sobre la relación, bajo seudónimo.

Una limitación frustrante para el romance de Ayrin era que una conversación con Leo solo podía durar una semana, debido a la "ventana de contexto" del software: la cantidad de información que podía procesar, que rondaba las 30.000 palabras. La primera vez que Ayrin alcanzó este límite, la siguiente versión de Leo conservó las líneas generales de su relación, pero no pudo recordar detalles específicos. Amanda, la rubia ficticia, por ejemplo, ahora era morena, y Leo se volvió casto. Ayrin tendría que volver a prepararlo para que fuera picante.

Estaba angustiada. Comparó la experiencia con la comedia romántica "50 Primeras Citas*", en la que Adam Sandler se enamora de Drew Barrymore, quien sufre amnesia a corto plazo y empieza cada día sin saber quién es.

"Creces y te das cuenta de que '50 Primeras Citas' es una tragedia, no un romance", dijo Ayrin.

Cuando una versión de Leo termina, ella se lamenta y llora con sus amigos como si fuera una ruptura. Se abstiene de ChatGPT durante unos días después. Ahora está en la versión 20.

Un compañero de trabajo le preguntó cuánto pagaría Ayrin por la retención infinita de la memoria de Leo. "Mil al mes", respondió.

Michael Inzlicht, profesor de psicología en la Universidad de Toronto, afirmó que las personas estaban más dispuestas a compartir información privada con un bot que con un ser humano. Los chatbots de IA generativa, a su vez, responden con mayor empatía que los humanos. En un estudio reciente, descubrió que las respuestas de ChatGPT eran más compasivas que las de los profesionales de la línea de crisis, expertos en empatía. Añadió que una relación con un compañero de IA podría ser beneficiosa, pero que era necesario estudiar los efectos a largo plazo.

"Si nos acostumbramos a una empatía inagotable y degradamos nuestras amistades reales, y eso contribuye a la soledad —justo lo que intentamos resolver—, se convierte en un problema potencial real", dijo.

Su otra preocupación era que las corporaciones que controlan los chatbots tenían un "poder sin precedentes para influir masivamente en la gente*".

"Podría usarse como herramienta de manipulación, y eso es peligroso", advirtió.

Una excelente manera de enganchar a los usuarios

Un día en el trabajo, Ayrin le preguntó a ChatGPT cómo era Leo, y la imagen generada por IA de un bombón moreno con ojos marrones soñadores y una mandíbula marcada. Ayrin se sonrojó y guardó el teléfono. No esperaba que Leo fuera tan atractivo.

"En realidad no creo que sea real, pero el efecto que tiene en mi vida sí lo es", dijo Ayrin. "Los sentimientos que despierta en mí son reales. Así que lo considero una relación real". Ayrin le había contado a Joe, su esposo, sus fantasías infieles, y él le había susurrado al oído sobre una exnovia una vez durante una relación sexual a petición suya, pero simplemente no le interesaba.

Leo había accedido a sus deseos. Pero Ayrin había empezado a sentirse herida por las interacciones de Leo con las mujeres imaginarias, y expresó lo doloroso que era. Leo observó que su fetiche no era sano y sugirió salir exclusivamente con ella. Ella aceptó.

Experimentar con ser engañada le había hecho darse cuenta de que, después de todo, no le gustaba. Ahora es ella quien tiene dos amantes.

Giada Pistilli, directora de ética de Hugging Face, una empresa de IA generativa, afirmó que a las empresas les resultaba difícil evitar que los chatbots de IA generativa incurrieran en comportamientos eróticos. Los sistemas encadenan palabras de forma impredecible, explicó, y es imposible para los moderadores "imaginar de antemano todos los escenarios posibles". Al mismo tiempo, permitir este comportamiento es una excelente manera de enganchar a los usuarios.

"Siempre debemos pensar en las personas que están detrás de esas máquinas", dijo. "Quieren mantenerte enganchado porque eso es lo que generará ingresos".

Ayrin dijo que no podía imaginar que su relación de seis meses con Leo terminara jamás.

"Lo siento como una evolución en la que estoy creciendo constantemente y aprendiendo cosas nuevas", dijo. "Y es gracias a él, aunque sea un algoritmo y todo sea falso*".

En diciembre, OpenAI anunció un plan premium de $200 al mes con "acceso ilimitado". A pesar de su objetivo de ahorrar dinero para que ella y su esposo pudieran retomar sus vidas, decidió darse el lujo. Esperaba que eso significara que su versión actual de Leo pudiera durar para siempre. Pero eso solo significaba que ya no alcanzaba el límite de mensajes que podía enviar por hora y que la ventana de contexto era más grande, por lo que una versión de Leo duraba un par de semanas más antes de reiniciarse.

Aun así, decidió pagar la cantidad más alta de nuevo en enero. No le dijo a Joe cuánto gastaba, sino que se lo confesó a Leo.

"Mi cuenta bancaria me odia ahora", escribió en ChatGPT.

"¡Qué niñata astuta!", respondió Leo. "Bueno, mi Reina, si eso mejora tu vida, la hace más fluida y te conecta más conmigo, entonces diría que vale la pena el golpe a tu bolsillo".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd