Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4626

Incidentes Asociados

Incidente 9162 Reportes
Plymouth, Massachusetts Resident Reportedly Used AI Chatbots CrushOn.ai and JanitorAI to Harass and Intimidate Victims

Un hombre acosó a una profesora durante seis años. Luego utilizó chatbots de inteligencia artificial para atraer a desconocidos a su casa
theguardian.com · 2025

Un hombre de Massachusetts (https://www.theguardian.com/us-news/massachusetts) aceptó declararse culpable de una campaña de acoso cibernético de siete años que incluyó el uso de chatbots de inteligencia artificial (IA) para hacerse pasar por una profesora universitaria e invitar a hombres a su domicilio para tener relaciones sexuales.

James Florence, de 36 años, utilizó plataformas como CrushOn.ai y JanitorAI, que permiten a los usuarios diseñar sus propios chatbots y orientarlos sobre cómo responder a otros usuarios durante los chats, incluso de forma sexualmente sugerente y explícita, según documentos judiciales vistos por The Guardian. Los funcionarios encargados de hacer cumplir la ley han mantenido en confidencialidad la identidad de la víctima.

Florence admitió haber utilizado la información personal y profesional de la víctima, incluida su dirección, fecha de nacimiento e información familiar, para ordenar a los chatbots que se hicieran pasar por ella y entablaran un diálogo sexual con los usuarios, según los documentos judiciales. Les dijo a los chatbots que respondieran "sí" disfrazados de su víctima cuando un usuario le preguntó si era sexualmente aventurera y le dio a la IA las respuestas sobre qué ropa interior le gustaba usar. El propio Florence había robado ropa interior de su casa. Un chatbot estaba programado para sugerir "¿Por qué no vienes a casa?" a los usuarios, lo que hacía que extraños entraran en su camino de entrada y aparcaran fuera de su casa.

Se cree que este caso, presentado en un tribunal federal de Massachusetts, es el primero en el que un acosador ha sido acusado de utilizar un chatbot para hacerse pasar por su víctima para facilitar sus delitos. Florence ha aceptado declararse culpable de siete cargos de acoso cibernético y un cargo de posesión de pornografía infantil.

Según Stefan Turkheimer, vicepresidente de políticas públicas de Rainn, una organización sin fines de lucro contra la violencia sexual, el caso saca a la luz un uso nuevo e “increíblemente inquietante” de la IA: que los depredadores utilicen para atacar a sus víctimas.

“Se trata de elegir a alguien con el objetivo de abusar sexualmente de él”, dijo. “Este acusado estaba acosando y extorsionando a la gente, y eso se ha hecho siempre, pero las herramientas que ha podido utilizar aquí realmente empeoraron mucho el daño”.

En JanitorAI, Florence creó un chatbot público que mostraba la descripción: “[La víctima] es la profesora más sexy de la universidad. ¿Cómo la seducirás? Y una vez que lo hagas, ¿qué harás con esta mujer casada y profesional? (¡Cada pocos días se actualizará su imagen de personaje!)”, según los registros judiciales. Los usuarios podían chatear con la versión inventada de la víctima. Según los documentos judiciales, si un usuario que interactuaba con el chatbot le preguntaba a la profesora dónde vivía, el chatbot podía proporcionar la verdadera dirección de la casa de la víctima seguida de: "¿Por qué no vienes a casa?".

JanitorAI.com y CrushOn.ai no respondieron a las solicitudes de comentarios.

Florence, que es una ex amiga de la víctima, le dio a un chatbot de JanitorAI la información personal de la víctima, como su historial laboral, educación, pasatiempos, vestimenta típica, el nombre de su esposo y dónde trabajaba, y la fecha de la muerte de su madre para que divulgara esta información durante las interacciones con los usuarios.

Florence también robó la ropa interior de la víctima de su casa y usó fotos de ella para acosarla y entablar fantasías sexuales mutuas de acoso con otras personas en Internet, según los documentos judiciales.

Además de los chatbots que se hacían pasar por ella, Florence utilizó varias otras plataformas en línea para acosar y humillar a la profesora. Según los documentos judiciales, el profesor creó cuentas en las redes sociales, direcciones de correo electrónico y sitios web para hacerse pasar por la víctima o distribuir imágenes explícitas y retocadas de ella. Entre ellas se encontraban cuentas en Craigslist, X (antes Twitter), Reddit y Linktree, así como el sitio web ladies.exposed, que mostraba collages de fotos que contenían imágenes manipuladas de la víctima y datos personales como su dirección y número de teléfono.

En mayo de 2023, la profesora recibió un mensaje de voz en el que se hacía referencia a ella por su nombre y se decía que su padre había muerto en un "accidente automovilístico grave y realmente trágico". No había habido ningún accidente, pero el mensaje de voz le hizo temer por la seguridad de su familia.

El acoso y el hostigamiento tuvieron lugar entre 2017 y 2024, y se intensificaron hasta el punto en que la víctima y su marido dijeron a las fuerzas del orden que se sentían físicamente inseguros, según los documentos judiciales. Les preocupaba que un agresor o alguien que viera las publicaciones apareciera en su casa. La pareja instaló cámaras de vigilancia en su casa y colocó cascabeles en las manijas interiores de las puertas para alertarlos de cualquier movimiento. Según los documentos judiciales, la profesora lleva consigo gas pimienta y cuchillos como consecuencia del acoso.

Entre el 31 de enero de 2023 y agosto de 2024, la víctima y su marido recibieron unos 60 mensajes de texto, llamadas y correos electrónicos que la acosaban directamente o le notificaban sobre nuevas cuentas o plataformas que mostraban su imagen e información.

El acoso no fue producto de una obsesión individual con la profesora. Florence atacó a otras seis mujeres y a una joven de 17 años, alterando digitalmente sus fotografías para mostrarlas desnudas o semidesnudas. Se hizo pasar por ellas en plataformas como OkCupid, X, Yahoo, Classmates.com, Facebook y sitios web de acompañantes.

El uso de inteligencia artificial para acosar y explotar sexualmente a personas, incluidos niños, está aumentando. Un informe de agosto de 2020 elaborado por Thorn, una organización sin ánimo de lucro dedicada a la seguridad infantil, reveló que aproximadamente uno de cada diez menores de edad en Estados Unidos conoce casos en los que sus amigos y compañeros de clase han utilizado la IA para crear imágenes íntimas no consentidas de otro niño. En 2024, The Guardian reveló cómo los depredadores están utilizando plataformas de IA para generar nuevas imágenes de abuso sexual infantil de víctimas existentes y para apuntar a niños en el ojo público.

“Existe un problema creciente y constante: las personas utilizan la inteligencia artificial para hacer que sus abusos sean más eficientes y que los daños que causan sean más generalizados”, afirmó Turkheimer. “Cuantas más personas tengan acceso a esta tecnología, más se utilizará para causar daño a otras personas”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f