Incidents associés
Il a été signalé que les profils étaient utilisés à des fins de marketing et de vente.
Une enquête menée par des chercheurs du Stanford Internet Observatory a découvert plus de 1 000 profils LinkedIn utilisant des images faciales qui semblent avoir été créées à l'aide de l'intelligence artificielle.
Selon NPR, la chercheuse Renée DiResta a été contactée par quelqu'un sur LinkedIn, avec de petites choses apparaissant sur l'image de profil. Pour DiResta, le visage "m'a sauté aux yeux comme étant faux" pour des raisons telles que le positionnement central des yeux dans l'image et les arrière-plans vagues.
Cela l'a incitée à lancer une enquête avec son collègue Josh Goldstein sur le nombre d'images générées par ordinateur - ou deepfake - sur les profils LinkedIn.
Les deepfakes utilisent une forme d'intelligence artificielle pour combiner et superposer des images et des vidéos existantes afin de créer de fausses images de personnes ou de donner l'impression qu'une personne a dit ou fait quelque chose qu'elle n'a pas fait.
Bien qu'il y ait eu des exemples de deepfakes utilisés comme source d'humour, on a également craint que cette technologie ne soit utilisée pour discréditer des individus ou comme un outil pour interférer dans les élections.
Il semble maintenant que la technologie soit entrée dans le monde de l'entreprise. NPR a constaté que bon nombre de ces profils avec des images générées par l'IA semblent être à des fins de marketing et de vente. Lorsque quelqu'un se connecte avec le faux profil, il finit par parler à un vrai vendeur.
NPR a suggéré que cette tactique pourrait permettre aux entreprises de "jeter un large réseau en ligne" sans avoir à employer plus de personnel.
Plusieurs des entreprises répertoriées comme employeurs sur les profils avec des images générées par l'IA ont déclaré à NPR qu'elles utilisaient des fournisseurs externes pour présenter des clients potentiels sur LinkedIn.
L'un de ces fournisseurs est AirSales, qui a déclaré embaucher des sous-traitants indépendants pour fournir des services de marketing et que ces sous-traitants peuvent créer des profils LinkedIn "à leur propre discrétion".
"À ma connaissance, il n'y a pas de règles spécifiques pour les photos de profil ou l'utilisation d'avatars", a déclaré le PDG d'AirSales, Jeremy Camilloni, à NPR. "C'est en fait courant chez les utilisateurs de technologies sur LinkedIn."
Les politiques de la communauté professionnelle de LinkedIn stipulent qu'il n'autorise pas les faux profils ou entités sur sa plate-forme. Cela inclut l'utilisation d'images de quelqu'un d'autre ou de "toute autre image qui ne vous ressemble pas" pour les photos de profil.
En général, la société affirme que les utilisateurs ne doivent pas publier d'images ou de vidéos deepfakes ou "publier autrement du contenu qui a été manipulé pour tromper".
La correspondante technologique de NPR, Shannon Bond, a déclaré sur Twitter que LinkedIn avait supprimé la plupart des profils trouvés au cours de l'enquête et mettait à jour ses défenses pour détecter les faux comptes.
Un rapport de la communauté sur la page de transparence de LinkedIn a déclaré avoir supprimé plus de 15 millions de faux comptes au cours du premier semestre 2021, la plupart d'entre eux étant arrêtés par des défenses automatisées.
Cependant, il peut être difficile pour les gens de repérer une image générée par ordinateur. Une étude publiée le mois dernier a vu des participants examiner des images faciales similaires pour décider laquelle était réelle et laquelle était un deepfake. Les participants avaient une précision moyenne de 48,2 pc, légèrement inférieure à si les résultats étaient basés sur le hasard.
L'année dernière, l'adolescent de Cork, Greg Tarr, a été nommé grand gagnant de l'exposition BT Young Scientist and Technology de 2021 pour son travail dans le développement d'une méthode améliorée pour détecter les deepfakes.