Incidente 916: Un residente de Plymouth, Massachusetts, habría utilizado los chatbots de inteligencia artificial CrushOn.ai y JanitorAI para acosar e intimidar a las víctimas.
Descripción: En enero de 2025, James Florence Jr., de Plymouth, Massachusetts, se declaró culpable de ciberacoso relacionado con el presunto uso de herramientas de IA como CrushOn.ai y JanitorAI. La Fiscalía de Estados Unidos informa que el acoso se extendió entre 2014 y 2024, aunque las tácticas basadas en IA comenzaron alrededor de 2017. Florence presuntamente creó imágenes pornográficas deepfake, programó chatbots de IA para hacerse pasar por víctimas, distribuyó contenido manipulado, expuso información personal y fomentó el acoso en línea.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: CrushOn.AI y JanitorAI developed an AI system deployed by James Florence Jr., which harmed Anonymous university professor targeted by James Florence Jr. , Families of victims targeted by James Florence Jr. y Six other women and a 17-year-old girl targeted by James Florence Jr..
Sistemas de IA presuntamente implicados: CrushOn.AI , JanitorAI , Craigslist , X (Twitter) , ladies.exposed , Reddit y Linktree
Estadísticas de incidentes
ID
916
Cantidad de informes
2
Fecha del Incidente
2025-01-23
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
El acusado supuestamente publicó imágenes alteradas digitalmente de la víctima en cuentas de redes sociales y programó chatbots impulsados por inteligencia artificial para imitar conversaciones humanas con otros usuarios desconocidos de pla…

Un hombre de Massachusetts (https://www.theguardian.com/us-news/massachusetts) aceptó declararse culpable de una campaña de acoso cibernético de siete años que incluyó el uso de chatbots de inteligencia artificial (IA) para hacerse pasar po…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents