Incidents associés
Il a 18 ans et fréquente l'institut préuniversitaire Manuel Belgrano de Cordoue. Il y a quelques mois, deux jeunes filles de 17 ans, qui ne sont pas dans la même classe et avec qui elles n'ont même pas eu de contact, ont commencé à recevoir sur Instagram des demandes d'hommes entre 40 et 50 ans.
Ils ont trouvé cette insistance étrange et que la même chose leur était arrivée. L’un d’entre eux a discuté avec l’un de ces utilisateurs et a découvert pourquoi, comme d’autres étudiants de ce lycée, il attirait autant d’attention en ligne.
Grâce à l'intelligence artificielle (IA), cet étudiant de 18 ans avait créé des photos à caractère sexuel mélangeant ses visages avec les corps d'autres femmes et les avait mises en ligne sur des sites pornographiques. Sur chaque image, il a mis le prénom et le nom des filles. C'est pourquoi ils recherchaient leurs profils.
La famille des deux filles qui ont été "agressées" sur Instagram et qui suivent aujourd'hui un traitement psychologique, l'a signalé au pénal. Dans le même temps, dans le cadre d'une action contraventionnelle, 20 autres étudiants affirment avoir été victimes d'autres photos falsifiées.
Des histoires comme celle-ci – comme celle très similaire qui a émergé cette semaine à San Martín, province de Buenos Aires – émergent petit à petit. Mais l'affaire Córdoba a conduit à une résolution sans précédent en Argentine : l'étudiante a été inculpée de blessures graves qualifiées de violence de genre.
En attendant le procès, ** Clarín ** a interviewé le procureur de Cordoue dans cette affaire charnière et des experts en droit et en cybercriminalité, pour comprendre à quel point le vide juridique est profond en Argentine lorsque les crimes ont pour "complices" l'IA.
Une accusation comme celle-ci nécessite des détails. Et le procureur les donne tous.
"Il s'agit clairement d'une affaire de violence de genre, en raison de la position de l'accusé face aux victimes et de l'objectification sexuelle à laquelle ils sont soumis dans le support numérique", commence Pablo Cuenca Tagle, le procureur de la juridiction de violence familiale qui l'a inculpé. et c'est pour l'enquêter.
Concrètement, la loi 26.485 sur la protection de la violence à l'égard des femmes, dans son article 6, section I, prévoit le type de « violence numérique ou télématique due à un comportement qui porte atteinte à la réputation de la victime », et parle expressément du cas de « diffusion, sans consentement, de matériel numérique réel ou édité, intime ou nu, attribué à des femmes.
En bref, dit Tagle, même si « le droit pénal doit nécessairement être mis à jour en générant de nouveaux types criminels spécifiques contre l'IA », dans ce cas particulier : « L'action de l'accusé peut être encadrée dans la figure des blessures psychologiques, qui ne nécessitent pas une commission spécifique de moyen".
Même lorsqu'il n'existe pas de figure criminelle propre, estime-t-il, "un comportement de ce type ne constitue pas un harcèlement ou une plaisanterie, mais peut plutôt constituer un crime, en raison des graves conséquences qu'il peut avoir sur le psychisme de la personne impliquée". , lorsque lesdites représentations créées artificiellement parviennent à leur connaissance".
A la fin de cette note, le jeune homme de 18 ans restait libre, avec des restrictions sur ses contacts avec les plaignants.
Comment prouver les blessures graves qualifiées de violence de genre alors qu’il n’y a aucune marque sur le corps ? "L'une des victimes a déjà subi un examen psychiatrique et il y a des dommages psychiques. Quant à l'autre victime, - précise le procureur - la plainte a été déposée plus tard et l'examen n'est pas encore disponible, donc dans ce cas-là " Pour l'instant, la plainte porte sur des blessures légères."
Le procureur a ordonné une perquisition au domicile de l'accusé et le résultat a été "positif" : ils ont trouvé l'ordinateur et le téléphone portable à partir desquels il a donné l'ordre (et le matériel) à un programme d'intelligence artificielle de créer les photos sexuelles qui il a ensuite téléchargé sur des sites pornographiques. Mais, avant ces dispositifs compromettants, comment les filles savaient-elles qu'il était à l'origine de ce faux contenu ?
"D'abord parce qu'il y aurait eu un constat devant des amis et, ensuite, parce que l'adresse IP qui identifie l'adresse de l'auteur des photos a été tracée."
L'action contraventionnelle contre l'accusé relève de la qualification de "harcèlement aggravé par des violences de genre". La différence avec la juridiction pénale est qu'il s'agit d'une contravention et non d'un crime. "Toutes les victimes ne réagissent pas de la même manière et ne subissent pas les mêmes conséquences. Jusqu'à présent, deux ont intenté une action pénale pour blessures, mais cela n'a peut-être pas causé un tel préjudice à d'autres victimes", conclut le procureur, qui pourrait entrer dans l'histoire en la jurisprudence sur l’IA.
"Les visages sont les visages des filles, peu importe qu'on leur ait donné un autre corps. Si elles étaient mineures, le crime est la diffusion de pédopornographie. Malheureusement, ce n'est pas un crime de diffuser de la pornographie adulte. Cette affaire rend "Clarín**.
L’IA dans la Justice : entre vide juridique et nécessité de mettre à jour le Code
À la mi-août, la commission chargée de préparer le projet de réforme du Code pénal s'est réunie dans les tribunaux de Comodoro Py et a progressé dans l'inclusion des délits liés à l'intelligence artificielle.
Le vice-président de la Commission et chambrier de la Cassation pénale, Mariano Borinsky, qui a dirigé ce projet de réforme, explique à Clarín pourquoi, à l'ère de l'IA, nous devons « ajouter la lettre » à la loi.
« Il est possible que certains cas de viralisation de photos pornographiques frelatées avec l'IA, comme dans cette accusation à Cordoue, puissent être analysés à partir du chiffre des blessures aggravées par la violence de genre. Il ne s'agit pas d'un cadrage traditionnel ou direct, comme dans le cas de blessures physiques, mais on pourrait affirmer que ce comportement provoque des blessures psychologiques, ceci dans le cadre d'un concept plus large de "blessures", entendu comme dommage à la santé mentale", soutient l'expert en jurisprudence.
En effet, ce cadrage, estime-t-il, "répond au fait qu'aujourd'hui il n'existe pas de norme spécifique qui caractérise ce comportement (comme c'est le cas dans le projet de Code pénal proposé). La loi à cet égard doit être mise à jour".
Le projet intègre spécifiquement ces chiffres. Et avec des peines allant de 3 à 6 ans de prison. Différentes circonstances aggravantes sont même prévues, "dont l'une est lorsque des violences de genre sont impliquées dans l'affaire ou que les victimes sont mineures".
La règle du projet du nouveau Code pénal dit :
« ARTICLE 123.- 1. Sera infligé une peine d'emprisonnement de TROIS (3) à SIX (6) ans quiconque crée avec l'intelligence artificielle ou par quelque moyen que ce soit produit, finance, propose, négocie, publie, facilite, diffuse, distribue. toute représentation d'« une personne de moins de DIX-HUIT (18) ans se livrant à des activités sexuelles explicites ou toute représentation de ses parties génitales à des fins principalement sexuelles ».
Certaines des victimes de l'affaire Cordoue ont moins de 18 ans. Que se passe-t-il dans ces cas où l’IA s’en mêle ? Est-ce un facteur aggravant ?
Dans la falsification d'images de mineurs grâce à l'IA, comme l'explique l'avocat et expert en criminalité informatique Daniel Monastersky, il y a plusieurs points à prendre en compte qui pourraient constituer un délit.
« La production de matériel d'exploitation sexuelle d'enfants : bien que les images soient générées par l'IA, elles sont basées sur des photographies réelles et les représentent dans des situations sexuelles explicites ; la simple possession de matériel d'exploitation et d'abus sexuels d'enfants ; ou la distribution et/ou la commercialisation de matériel d'exploitation sexuelle d'enfants", détaille-t-il.
"En créant des versions fausses et sexualisées de mineurs, on pourrait affirmer qu'il existe une forme d'usurpation d'identité (c'est une infraction au CABA). Il devrait être considéré comme urgent de l'inclure comme un délit dans le Code pénal national. "Il pourrait également s'agir d'une tentative d'extorsion, en utilisant de fausses images, ce qui constituerait un délit supplémentaire", conclut Monastersky.
Bientôt, le projet qui inclut l'IA dans les classifications du Code pénal sera soumis au Congrès national.
PS