Incidentes Asociados

MONTREAL - Un hombre de Quebec ha sido condenado a más de tres años de prisión por utilizar inteligencia artificial para producir vídeos sintéticos de pornografía infantil.
Steven Larouche, de 61 años, de Sherbrooke, Que., se declaró culpable de crear al menos siete videos con la llamada tecnología deepfake, que se utiliza para superponer el rostro de un individuo al cuerpo de otra persona. También se declaró culpable de posesión de cientos de miles de archivos informáticos de pornografía infantil, por lo que fue condenado a cuatro años y medio más.
El juez del tribunal provincial Benoit Gagnon escribió en su fallo, emitido a principios de este mes, que cree que este fue el primer caso en el país que involucra falsificaciones de pornografía infantil. Dijo que le preocupa lo que sucederá cuando los delincuentes utilicen la tecnología para poner los rostros de niños cuyas imágenes encuentran en las redes sociales en videos de otros niños que son agredidos sexualmente.
"El uso de tecnología deepfake en manos criminales es escalofriante. El tipo de software permite cometer delitos que podrían involucrar prácticamente a todos los niños de nuestras comunidades", escribió Gagnon en la decisión del 14 de abril. "Un simple extracto de un vídeo de un niño disponible en las redes sociales, o un vídeo de niños tomado en un lugar público, podría convertirlos en víctimas potenciales de pornografía infantil".
Gagnon escribió que la creación de nuevas imágenes de abuso sexual fomenta el mercado de la pornografía infantil, que anhela la novedad, y pone a los niños en riesgo al "alimentar fantasías que incitan a cometer delitos sexuales contra los niños".
Mientras que los abogados de Larouche abogaron por una sentencia más leve, porque los niños no fueron agredidos cuando él produjo los videos, el juez escribió que los niños cuyos cuerpos aparecían en los videos vieron nuevamente violada su integridad sexual.
Muchas imágenes de pornografía infantil tienen una huella digital, lo que permite a la policía identificarlas, escribió el juez. Al crear imágenes sintéticas, Larouche hizo más difícil para la policía detener la difusión del material ilícito.
Larouche también admitió poseer más de 545.000 archivos informáticos que contenían imágenes o vídeos de abuso sexual infantil, algunos de los cuales puso a disposición de otros.
Entre esas imágenes había una serie de una niña que fue abusada durante un período de siete años, entre las edades de siete y 14 años. En la computadora de Larouche, la policía también encontró fotos de ella de sus cuentas de redes sociales e información personal sobre la niña, incluida su nombre real, el pueblo donde vive y el nombre de su escuela.
En total, Gagnon condenó a Larouche a ocho años de prisión. Con crédito por el tiempo cumplido, Larouche deberá cumplir otros cinco años y 11 meses.
La ley canadiense prohíbe cualquier representación visual de alguien menor de 18 años involucrado en una actividad sexual explícita.
Stephen Sauer, director de Cybertip.ca, dijo que si bien ha habido casos anteriores de personas que crearon imágenes sintéticas de abuso sexual infantil de formas más rudimentarias, como con Photoshop, esto Puede ser la primera vez que alguien en Canadá es sentenciado por crear material utilizando tecnología deepfake.
"Estamos casi en esta época sin precedentes en la que cualquier niño puede resultar dañado como resultado de este tipo de material. Así que puedes tomar cualquier imagen en línea y crear este tipo de imágenes y dañarlas de muchas maneras", dijo en una entrevista el miércoles.
Las imágenes sintéticas no sólo humillan a las víctimas, violando su dignidad y privacidad, sino que también podrían buscar a esos niños para agredirlos sexualmente. "Crea un riesgo de seguridad para ese niño, porque hay personas que buscarán identificar a personas en imágenes de abuso sexual", dijo.
Vasileia Karasavva, estudiante de maestría en psicología clínica de la Universidad de Columbia Británica que coescribió un artículo de 2021 sobre la amenaza de la pornografía deepfake, dijo que el listón tecnológico para crear videos con esta tecnología sigue bajando.
La tecnología es cada vez más fácil de usar y la cantidad de imágenes necesarias para poner la cara de alguien en un video también está disminuyendo, dijo en una entrevista el miércoles, y agregó que se pueden usar aplicaciones para extraer imágenes de un individuo de sus cuentas de redes sociales.
Dijo que la pornografía deepfake tiene dos víctimas: la persona cuyo cuerpo aparece en el vídeo, así como la persona cuyo rostro aparece.
Si bien hay poca investigación sobre el impacto específico de la pornografía deepfake en las víctimas, la investigación sobre otras formas de violencia sexual en línea muestra que a menudo afecta a las víctimas de manera similar a las agresiones sexuales en persona.
"Esta victimización también continúa. Es muy pública. Muy a menudo, es muy permanente y la víctima se siente muy impotente e impotente en esa situación", dijo.
Este informe de The Canadian Press se publicó por primera vez el 26 de abril de 2023.