Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6094

Incidentes Asociados

Incidente 11671 Reporte
Alleged Gaggle Surveillance Alert Reportedly Leads to Arrest and Detention of 13-Year-Old Student in Fairview, Tennessee

Loading...
Los estudiantes han sido llamados a la oficina, e incluso arrestados, por falsas alarmas de vigilancia con IA.
apnews.com · 2025

Lesley Mathis sabe que lo que dijo su hija estaba mal. Pero nunca imaginó que la niña de 13 años sería arrestada por ello.

La adolescente hizo una broma ofensiva mientras chateaba en línea con sus compañeros, lo que activó el software de vigilancia de la escuela (https://apnews.com/article/ai-school-chromebook-gaggle-goguardian-securly-25a3946727397951fd42324139aaf70f).

Antes de que terminara la mañana, la estudiante de octavo grado de Tennessee fue arrestada. Fue interrogada, registrada al desnudo y pasó la noche en una celda, según cuenta su madre.

Más temprano ese mismo día, sus amigos se habían burlado de la adolescente por su tez bronceada y la habían llamado "mexicana", aunque no lo era. Cuando un amigo le preguntó qué planeaba para el jueves, escribió: "El jueves matamos a todos los mexicanos". Mathis dijo que los comentarios eran "incorrectos" y "estúpidos", pero el contexto demostraba que no representaban una amenaza.

"Me hizo pensar: ¿Así es Estados Unidos en el que vivimos?", dijo Mathis sobre el arresto de su hija. "Y era esta tecnología tan estúpida que solo se limita a elegir palabras al azar sin tener en cuenta el contexto".

Los sistemas de vigilancia en las escuelas estadounidenses monitorean cada vez más todo lo que los estudiantes escriben en sus cuentas y dispositivos escolares. Miles de distritos escolares en todo el país utilizan software como Gaggle y Lightspeed Alert para rastrear las actividades en línea de los niños, buscando señales de que podrían hacerse daño a sí mismos o a otros. Con la ayuda de la inteligencia artificial, la tecnología puede intervenir en las conversaciones en línea y notificar de inmediato tanto a las autoridades escolares como a las fuerzas del orden.

Los educadores afirman que la tecnología ha salvado vidas. Sin embargo, los críticos advierten que puede criminalizar a los niños por palabras descuidadas.

"Ha convertido en rutinario el acceso y la presencia de las fuerzas del orden en la vida de los estudiantes, incluso en sus hogares", declaró Elizabeth Laird, directora del Centro para la Democracia y la Tecnología.

Las escuelas intensifican la vigilancia ante amenazas

En un país cansado de los tiroteos escolares, varios estados han endurecido la postura ante las amenazas a las escuelas. Entre ellos se encuentra Tennessee, que aprobó en 2023 una ley de tolerancia cero que exige que cualquier amenaza de violencia masiva contra una escuela se notifique de inmediato a las fuerzas del orden.

La joven de 13 años, arrestada en agosto de 2023, había estado enviando mensajes de texto a sus amigos a través de un chat vinculado a su correo electrónico escolar en la Escuela Intermedia Fairview, que utiliza Gaggle para monitorear las cuentas de los estudiantes. (The Associated Press no divulga el nombre de la joven para proteger su privacidad. El distrito escolar no respondió a una solicitud de comentarios).

Llevada a la cárcel, la adolescente fue interrogada y registrada al desnudo, y sus padres no pudieron hablar con ella hasta el día siguiente, según una demanda interpuesta contra el sistema escolar. No sabía por qué sus padres no estaban allí.

"Después me dijo: 'Pensé que me odiabas'. Eso te atormenta", dijo Mathis, la madre de la joven.

Un tribunal ordenó ocho semanas de arresto domiciliario, una evaluación psicológica y 20 días en una escuela alternativa para la niña.

El director ejecutivo de Gaggle, Jeff Patterson, declaró en una entrevista que el sistema escolar no utilizó Gaggle como estaba previsto. El propósito es detectar señales de alerta temprana e intervenir antes de que los problemas lleguen a las autoridades, afirmó.

"Ojalá se hubiera tratado como una lección, no como un momento para las autoridades", dijo Patterson.

Chats privados de estudiantes enfrentan un escrutinio inesperado

Los estudiantes que creen estar chateando en privado entre amigos a menudo no se dan cuenta de que están bajo vigilancia constante, afirmó Shahar Pasch, abogada educativa en Florida.

Una adolescente a la que representaba bromeó sobre tiroteos escolares en una historia privada de Snapchat. El software de detección automática de Snapchat detectó el comentario, la compañía alertó al FBI y la niña fue arrestada en las instalaciones de la escuela en cuestión de horas.

Alexa Manganiotis, de 16 años, dijo que le sorprendió la rapidez con la que funciona el software de monitoreo. La Escuela de Artes Dreyfoos de West Palm Beach, a la que asiste, puso en marcha el año pasado Lightspeed Alert, un programa de vigilancia. Al entrevistar a una profesora para el periódico escolar, Alexa descubrió que dos estudiantes escribieron algo amenazante sobre ella en una computadora y luego lo borraron. Lightspeed lo detectó y "se los llevaron unos cinco minutos después", dijo Alexa.

Los adolescentes enfrentan consecuencias más severas que los adultos por lo que escriben en línea, dijo Alexa.

"Si un adulto hace un chiste racista y amenazante en su computadora, puede borrarlo y no lo arrestarían", dijo.

Amy Bennett, jefa de personal de Lightspeed Systems, afirmó que el software ayuda a las escuelas con poco personal a "ser proactivas en lugar de punitivas" al identificar señales tempranas de acoso, autolesiones, violencia o abuso. La tecnología también puede involucrar a las fuerzas del orden en la respuesta a crisis de salud mental. En las Escuelas del Condado de Polk de Florida, un distrito con más de 100,000 estudiantes, el programa de seguridad escolar recibió cerca de 500 alertas de Gaggle durante cuatro años, según informaron los oficiales en reuniones públicas de la Junta de Educación. Esto resultó en 72 casos de hospitalización involuntaria bajo la Ley Baker, una ley estatal que permite a las autoridades exigir evaluaciones de salud mental a personas contra su voluntad si representan un riesgo para sí mismas o para los demás.

"Un gran número de niños que experimentan una evaluación involuntaria la recuerdan como una experiencia realmente traumática y perjudicial, y no como algo que les ayude con el cuidado de su salud mental", dijo Sam Boyd, abogado del Southern Poverty Law Center. Los distritos escolares de Polk y West Palm Beach no hicieron comentarios.

Un análisis muestra una alta tasa de falsas alarmas

La información que podría permitir a las escuelas evaluar la efectividad del software, como la tasa de falsas alertas, está en secreto en manos de las empresas tecnológicas y no está disponible públicamente a menos que las escuelas rastreen los datos por sí mismas. Gaggle alertó al distrito escolar de Lawrence, Kansas, sobre más de 1200 incidentes en un período reciente de 10 meses. Sin embargo, las autoridades escolares consideraron que casi dos tercios de esas alertas no eran relevantes, incluyendo más de 200 falsas alarmas relacionadas con las tareas de los estudiantes, según un análisis de Associated Press de datos recibidos mediante una solicitud de registros públicos.

Los estudiantes de una clase de fotografía fueron llamados a la oficina del director por la preocupación de que Gaggle hubiera detectado desnudos. Las fotos se habían eliminado automáticamente de las cuentas de Google Drive de los estudiantes, pero quienes tenían copias de seguridad de las imágenes marcadas en sus dispositivos demostraron que se trataba de una falsa alarma. Las autoridades del distrito afirmaron que posteriormente ajustaron la configuración del software para reducir las falsas alertas.

Natasha Torkzaban, quien se graduó en 2024, dijo que la marcaron por editar el ensayo universitario de una amiga porque incluía las palabras "salud mental".

"Creo que idealmente no aplicaríamos una solución nueva y brillante de IA a un problema tan arraigado como la salud mental de los adolescentes y las tasas de suicidio en Estados Unidos, pero ahí es donde estamos ahora mismo", dijo Torkzaban. Ella formó parte de un grupo de estudiantes de periodismo y artistas de la escuela secundaria Lawrence que presentaron una demanda contra el sistema escolar la semana pasada, alegando que Gaggle los sometió a vigilancia inconstitucional.

Las autoridades escolares han afirmado que se toman en serio las preocupaciones sobre Gaggle, pero también afirman que la tecnología ha detectado docenas de amenazas inminentes de suicidio o violencia.

"A veces hay que considerar el intercambio como un bien común", dijo Anne Costello, miembro de la Junta de Educación, en una reunión de la junta en julio de 2024.

Dos años después de su terrible experiencia, Mathis dijo que su hija está mejor, aunque todavía le aterra encontrarse con uno de los agentes escolares que la arrestaron. Un punto positivo, comentó, fue la compasión de los maestros de la escuela alternativa de su hija. Se tomaron un tiempo cada día para que los niños compartieran sus sentimientos y frustraciones, sin juzgarlos.

"Es como si solo quisiéramos que los niños fueran pequeños soldados, y no lo son", dijo Mathis. "Son simplemente humanos".


Este informe revisó las reuniones de la junta escolar publicadas en YouTube, cortesía de DistrictView, un conjunto de datos creado por los investigadores Tyler Simko, Mirya Holman y Rebecca Johnson.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd