Incidentes Asociados
Se ha informado que los perfiles se utilizaron con fines de marketing y ventas.
Una investigación realizada por investigadores del Observatorio de Internet de Stanford descubrió más de 1,000 perfiles de LinkedIn usando imágenes faciales que parecen haber sido creadas usando inteligencia artificial.
Según NPR, la investigadora Renée DiResta fue contactada por alguien en LinkedIn, y aparecieron pequeñas cosas sobre la imagen de perfil. Para DiResta, el rostro "me llamó la atención como si fuera falso" por razones que incluyen la posición central de los ojos en la imagen y fondos vagos.
Esto la llevó a comenzar una investigación con su colega Josh Goldstein sobre la cantidad de imágenes generadas por computadora, o falsas, en los perfiles de LinkedIn.
Deepfakes utiliza una forma de inteligencia artificial para combinar y superponer imágenes y videos existentes para crear imágenes falsas de personas o hacer que parezca que una persona ha dicho o hecho algo que no ha hecho.
Si bien ha habido ejemplos de deepfakes utilizados como fuente de humor, también ha habido temores de que esta tecnología pueda usarse para desacreditar a las personas o como una herramienta para interferir en las elecciones.
Ahora parece que la tecnología ha entrado en el mundo empresarial. NPR descubrió que muchos de estos perfiles con imágenes generadas por IA parecen tener fines de marketing y ventas. Cuando alguien se conecte con el perfil falso, terminará hablando con un vendedor real.
NPR sugirió que esta táctica podría permitir a las empresas "lanzar una amplia red en línea" sin tener que emplear más personal.
Varias de las empresas que figuran como empleadores en los perfiles con imágenes generadas por IA le dijeron a NPR que utilizaron proveedores externos para atraer clientes potenciales en LinkedIn.
Uno de estos proveedores es AirSales, que dijo que contrata a contratistas independientes para brindar servicios de marketing y que estos contratistas pueden crear perfiles de LinkedIn "a su propia discreción".
“Que yo sepa, no hay reglas específicas para las imágenes de perfil o el uso de avatares”, dijo a NPR el director ejecutivo de AirSales, Jeremy Camilloni. "Esto es realmente común entre los usuarios de tecnología en LinkedIn".
Las políticas de la comunidad profesional de LinkedIn establecen que no permite perfiles o entidades falsas en su plataforma. Esto incluye el uso de imágenes de otra persona o “cualquier otra imagen que no se parezca a ti” para las fotos de perfil.
En general, la compañía dice que los usuarios no deben publicar imágenes o videos falsos ni "publicar contenido que haya sido manipulado para engañar".
La corresponsal de tecnología de NPR, Shannon Bond, dijo en Twitter que LinkedIn eliminó la mayoría de los perfiles encontrados durante la investigación y está actualizando sus defensas para detectar cuentas falsas.
Un informe de la comunidad en la página de transparencia de LinkedIn dijo que eliminó más de 15 millones de cuentas falsas en la primera mitad de 2021, y la mayoría de ellas fueron bloqueadas por defensas automatizadas.
Sin embargo, puede ser difícil para las personas detectar una imagen generada por computadora. Un estudio publicado el mes pasado vio a los participantes examinar imágenes faciales similares para decidir cuál era real y cuál era una falsificación profunda. Los participantes tuvieron una precisión promedio de 48,2%, ligeramente más baja que si los resultados se basaran en el azar.
El año pasado, el adolescente de Cork, Greg Tarr, fue nombrado ganador general en la Exposición de tecnología y científicos jóvenes de BT de 2021 por su trabajo en el desarrollo de un método mejorado para detectar falsificaciones profundas.