Incidentes Asociados

El Collège Béliveau está lidiando con el lado oscuro de la inteligencia artificial después de que se descubriera que en la escuela de Winnipeg circulaban fotos de estudiantes menores de edad desnudas generadas por IA.
Un correo electrónico enviado a los padres el jueves por la tarde decía que los funcionarios de la escuela se enteraron el lunes por la noche de que se estaban compartiendo en línea fotos manipuladas de estudiantes femeninas en la escuela de inmersión francesa de los grados 7 a 12, y que los funcionarios de la escuela se comunicaron con la policía.
"Estamos agradecidos y orgullosos de los estudiantes que se presentaron para informarnos sobre esto", decía la carta.
La madre de una niña cuyas fotos alteradas estaban entre las que circularon le dijo a CBC News que espera que la persona responsable rinda cuentas. Ella cuestionó por qué las empresas de inteligencia artificial permiten que esto suceda.
Otro padre, que tiene un hijo en el grado 12 en el Collège Béliveau, dijo que estaba sorprendida por la noticia.
"Creo que es más aterrador para las niñas que para los niños, esa es solo mi opinión", dijo Noni Kopczewski.
"Tengo tres niños, pero creo que mi mejor consejo para mis hijos es siempre ser respetuosos... Pónganse en el lugar de otra persona. Esto es doloroso y el daño que causa es a largo plazo".
Los funcionarios de la escuela no saben cuántas fotos se compartieron ni cuántas niñas fueron víctimas. (CBC)
Kopczewski dijo que ha habido una discusión sobre la inteligencia artificial en su hogar, incluidos los riesgos que conlleva su uso.
"Se está volviendo mucho más aterrador ahí afuera, nos estamos educando mucho más", dijo.
'Territorio inexplorado': la policía
La escuela dijo que las fotos originales parecen haber sido recopiladas de redes sociales de acceso público y luego fueron alteradas explícitamente.
No dijeron cuántas fotos creen que se compartieron ni cuántas niñas fueron víctimas.
La escuela está "investigando para comprender mejor el alcance de lo que sucedió y quién estuvo involucrado", y los funcionarios están "tomando las medidas necesarias para responder a las acciones de las personas identificadas que compartieron estas imágenes", decía el correo electrónico a los padres.
"Si bien no podemos asumir que tenemos evidencia de todas las fotos manipuladas, nos comunicaremos directamente con los cuidadores de aquellos estudiantes para quienes sí la tenemos".
La escuela, en el vecindario de Windsor Park, tiene poco menos de 600 estudiantes, dice su sitio web.
Los funcionarios de la escuela también han estado en contacto con Cybertip.ca, una línea de denuncia de abuso en línea que opera el Centro Canadiense para la Protección Infantil en Winnipeg.
Las imágenes que reciba la escuela se subirán al Proyecto Arachnid de Cybertip, que puede ayudar a eliminarlas.
La agente Dani McKinnon dijo que la unidad de lucha contra la explotación del servicio de policía está investigando, pero que todavía es demasiado pronto en una investigación activa para proporcionar más detalles.
"La IA es una parte nueva y complicada de nuestro mundo", dijo. "Sin duda es una forma más nueva de comportamiento subrepticio. Estamos en territorio desconocido".
No se han presentado cargos en este momento.
"Este problema va a empeorar"
Los funcionarios de la escuela dijeron que hay equipos de apoyo disponibles para cualquier estudiante afectado directa o indirectamente por lo sucedido.
Hay apoyo y recursos adicionales disponibles a través de Cybertip.ca y Need Help Now, otro recurso canadiense para jóvenes y familias, decía el correo electrónico de la escuela.
La explotación de jóvenes a través de imágenes creadas sin su conocimiento en programas de edición de fotografías, y luego compartidas en línea, ha sido un problema preocupante durante años, dijo el director de Cybertip.
Pero "la IA realmente ha acelerado eso", dijo Stephen Sauer.
Aunque ha habido casos de uso de IA para crear material de abuso sexual infantil en Canadá, incluido uno en Quebec, Sauer no tiene conocimiento de un caso anterior en este país en el que los adolescentes de una escuela fueran víctimas de otros adolescentes de esta manera.
No está claro en este momento si la persona responsable es un compañero de estudios. La policía y la escuela no han hecho comentarios al respecto.
Sauer tampoco pudo hablar específicamente sobre la investigación en el Collège Béliveau, pero dijo que las personas que crean imágenes explícitas a menudo no comprenden las consecuencias y los impactos a largo plazo.
"Incluso si este material se crea porque la gente piensa que es divertido o piensa que es un acto ligeramente malicioso... aún puede considerarse pornografía infantil o material de abuso sexual infantil según la ley", dijo.
"Este material puede volver a atormentar a esa víctima más adelante en otras etapas de su vida si se ha compartido en línea junto con información personal".
El Proyecto Arachnid, un rastreador web que escanea Internet en busca de imágenes conocidas de abuso sexual infantil y emite avisos a las empresas para que las eliminen, puede reducir la propagación de material de abuso sexual infantil en línea, pero la clave es llegar a él rápidamente antes de que se distribuya más ampliamente, dijo Sauer.
"Ciertamente, no hay una solución milagrosa, pero lo que hace es proporcionar avisos a las empresas para informarles cuando se publica material en su servicio... para que puedan mantener sus redes limpias", dijo.
Maura Grossman dice que se ha vuelto muy fácil crear imágenes falsas, mientras que controlarlas se ha vuelto muy difícil. (Universidad de Waterloo)
Maura Grossman, profesora de investigación en la escuela de ciencias de la computación de la Universidad de Waterloo que ha estado estudiando las implicaciones del mundo real de las imágenes generadas por IA, también dijo que este sería el primer caso de estudiantes en Canadá que hacen tales falsificaciones profundas de otros estudiantes.
Ha habido algunos casos recientes en Estados Unidos, en Nueva Jersey y Seattle, "pero no había oído que hubiera llegado a Canadá", dijo.
"Es bastante alarmante y no es difícil de hacer, y se puede hacer de forma gratuita. Hay muchos sitios en línea".
Aunque la capacidad de intercambiar rostros con otros cuerpos ya existía antes, la tecnología era deficiente. Ahora, cualquiera puede crear imágenes convincentes, dijo Grossman.
La parte difícil ahora es descubrir cómo controlarlo.
"Estás tratando con personas de todo el mundo. Es muy difícil obtener jurisdicción sobre esa persona en un asunto legal", dijo.
"Es extremadamente desafiante y creo que este problema va a empeorar, no a mejorar".