Incidente 916: Un residente de Plymouth, Massachusetts, habría utilizado los chatbots de inteligencia artificial CrushOn.ai y JanitorAI para acosar e intimidar a las víctimas.
Descripción: En enero de 2025, James Florence Jr., de Plymouth, Massachusetts, se declaró culpable de ciberacoso relacionado con el presunto uso de herramientas de IA como CrushOn.ai y JanitorAI. La Fiscalía de Estados Unidos informa que el acoso se extendió entre 2014 y 2024, aunque las tácticas basadas en IA comenzaron alrededor de 2017. Florence presuntamente creó imágenes pornográficas deepfake, programó chatbots de IA para hacerse pasar por víctimas, distribuyó contenido manipulado, expuso información personal y fomentó el acoso en línea.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: CrushOn.AI y JanitorAI developed an AI system deployed by James Florence Jr., which harmed Anonymous university professor targeted by James Florence Jr. , Families of victims targeted by James Florence Jr. y Six other women and a 17-year-old girl targeted by James Florence Jr..
Sistemas de IA presuntamente implicados: CrushOn.AI , JanitorAI , Craigslist , X (Twitter) , ladies.exposed , Reddit y Linktree
Estadísticas de incidentes
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes
Loading...
El acusado supuestamente publicó imágenes alteradas digitalmente de la víctima en cuentas de redes sociales y programó chatbots impulsados por inteligencia artificial para imitar conversaciones humanas con otros usuarios desconocidos de pla…
Loading...

Un hombre de Massachusetts (https://www.theguardian.com/us-news/massachusetts) aceptó declararse culpable de una campaña de acoso cibernético de siete años que incluyó el uso de chatbots de inteligencia artificial (IA) para hacerse pasar po…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

