Incidents associés
Le Bureau national d'enquête (NBI) a découvert dans le cadre de ses activités un possible incident de sécurité de l'information impliquant des données personnelles et a fait un rapport sur l'incident au Conseil de la police nationale. L'incident allégué s'est produit lors du traitement de données à caractère personnel dans un service pour lequel la sécurité des informations ou le respect de la législation sur la protection des données n'ont peut-être pas été assurés au préalable de manière suffisante.
L'incident a été découvert par le NBI le jeudi 8 avril. Sur la base des premières informations du NBI, le Conseil de la police nationale a décidé de signaler l'affaire au Bureau du médiateur pour la protection des données et a soumis le rapport le vendredi 9 avril.
L'incident de sécurité de l'information est lié au test de la technologie de reconnaissance faciale effectué début 2020 par l'unité du NBI chargée de lutter contre l'exploitation sexuelle des enfants. Les tâches de cette unité comprennent la présélection du matériel d'exploitation sexuelle d'enfants reçu des parties prenantes internationales.
La police a le droit légal de traiter les images faciales biométriques dans les conditions prévues par la loi si le traitement est nécessaire à l'accomplissement d'une mission légale de police.
– L'unité a testé un service américain appelé Clearview AI pour l'identification d'éventuelles victimes d'abus sexuels afin de contrôler la charge de travail accrue de l'unité au moyen de l'intelligence artificielle et de l'automatisation. L'identification des victimes représentées dans les images et les vidéos examinées par l'unité est cruciale pour protéger les droits des victimes et pour interrompre tout crime en cours ou détecter une infraction déjà commise, déclare le chef du centre de cybercriminalité, le surintendant principal des détectives Mikko Rauhamaa du NBI.
Au cours de la période d'essai, l'unité a effectué environ 120 recherches dans le logiciel, qui utilise des photos de personnes sur les réseaux sociaux. Les images saisies dans ce logiciel avaient été modifiées par l'unité pour ne représenter que le visage de ceux qui devaient être identifiés. Il y a eu un « hit » pendant la période d'essai, et cela a conduit à une coopération avec les autorités sociales. Aucune enquête criminelle n'a été ouverte ou aucune autre action policière réelle n'a été entreprise à la suite du coup.
Après avoir utilisé le logiciel pendant la durée de la période d'essai, il a été conclu que Clearview AI n'était pas adapté en Finlande pour cette coopération particulière entre les autorités.
– L'un des devoirs statutaires du NBI est de développer davantage les méthodes de lutte contre la criminalité. L'unité concernée explorait des outils pour réduire la charge de travail et améliorer l'efficacité des processus de police afin de permettre une intervention immédiate dans toute exploitation en cours. Dans ce cas particulier, le logiciel n'était pas adapté à la police, explique Mikko Rauhamaa.
Le NBI continue d'enquêter sur la question.