Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1552

Incidentes Asociados

Incidente 1744 Reportes
Fake LinkedIn Profiles Created Using GAN Photos

Loading...
Esa cara sonriente de perfil de LinkedIn podría ser una falsificación generada por computadora
npr.org · 2022

A primera vista, Renée DiResta pensó que el mensaje de LinkedIn parecía bastante normal. El remitente, Keenan Ramsey, mencionó que ambos pertenecían a un grupo de LinkedIn para emprendedores. Puntualizó su saludo con un emoji sonriente antes de pasar a un lanzamiento de software. "Pregunta rápida: ¿alguna vez ha considerado o investigado un enfoque unificado para mensajes, videos y teléfonos en cualquier dispositivo, en cualquier lugar?" DiResta no estaba interesada y habría ignorado el mensaje por completo, pero luego miró más de cerca la foto de perfil de Ramsey. Las pequeñas cosas parecían estar fuera de lugar en lo que debería haber sido una foto corporativa típica. Ramsey solo llevaba un pendiente. Mechones de su cabello desaparecieron y luego reaparecieron. Sus ojos estaban alineados justo en el medio de la imagen. "La cara me llamó la atención como falsa", dijo DiResta, un investigador veterano que ha estudiado las campañas rusas de desinformación y las conspiraciones contra las vacunas. Para su ojo entrenado, estas anomalías eran señales de alerta de que la foto de Ramsey probablemente había sido creada por inteligencia artificial. Ese mensaje casual lanzó a DiResta y su colega Josh Goldstein en el Observatorio de Internet de Stanford en una investigación que descubrió más de 1,000 perfiles de LinkedIn usando lo que parecen ser rostros creados por inteligencia artificial. Las cuentas de redes sociales que usan rostros generados por computadora han impulsado la desinformación china; activistas hostigados; y se hicieron pasar por estadounidenses que apoyan al expresidente Donald Trump y a los medios de comunicación independientes que difunden propaganda a favor del Kremlin. NPR descubrió que muchos de los perfiles de LinkedIn parecen tener un propósito mucho más mundano: aumentar las ventas para empresas grandes y pequeñas. Cuentas como la de Keenan Ramsey envían mensajes a clientes potenciales. Cualquiera que muerde el anzuelo se conecta con un vendedor real que intenta cerrar el trato. Piense en el telemercadeo para la era digital. Mediante el uso de perfiles falsos, las empresas pueden lanzar una amplia red en línea sin reforzar su propio personal de ventas o alcanzar los límites de mensajes de LinkedIn. La demanda de clientes potenciales de ventas en línea se disparó durante la pandemia, ya que se volvió difícil para los equipos de ventas presentar sus productos en persona. Más de 70 empresas figuraban como empleadores en estos perfiles falsos. Varios le dijeron a NPR que habían contratado a vendedores externos para ayudar con las ventas. Sin embargo, dijeron que no habían autorizado ningún uso de imágenes generadas por computadora y muchos se sorprendieron al enterarse de ellas cuando NPR preguntó. NPR no ha verificado de forma independiente quién creó los perfiles o las imágenes, ni ha encontrado a nadie que autorice su uso. NPR tampoco ha encontrado ninguna actividad ilegal. Pero estas fotos de perfil de LinkedIn generadas por computadora ilustran cómo una tecnología que se ha utilizado para propagar información errónea y acoso en línea ha llegado al mundo corporativo. "Parece alguien que conocemos" Desde una perspectiva empresarial, crear cuentas de redes sociales con rostros generados por computadora tiene sus ventajas: es más económico que contratar a varias personas para crear cuentas reales, y las imágenes son convincentes. Un estudio reciente encontró que las caras hechas por IA se han vuelto "indistinguibles" de las caras reales. Las personas tienen solo un 50% de posibilidades de adivinar correctamente si una cara fue creada por una computadora, nada mejor que lanzar una moneda al aire. "Si le preguntas a la persona promedio en Internet, '¿Es esta una persona real o generada sintéticamente?' están esencialmente en el azar", dijo Hany Farid, experto en análisis forense de medios digitales en la Universidad de California, Berkeley, coautor del estudio con Sophie J. Nightingale de la Universidad de Lancaster. Su estudio también encontró que las personas consideran las caras hechas por computadora un poco más confiables que las reales. Farid sospecha que eso se debe a que la IA se adhiere a las características más promedio al crear una cara. "Ese rostro tiende a parecer digno de confianza, porque es familiar, ¿verdad? Se parece a alguien que conocemos", dijo. Le preocupa que la proliferación de contenido generado por IA pueda augurar una nueva era de engaño en línea, utilizando no solo imágenes fijas, sino también "deepfakes" de audio y video. Después de que los investigadores de Stanford alertaron a LinkedIn sobre los perfiles, LinkedIn dijo que investigó y eliminó aquellos que violaban sus políticas, incluidas las reglas contra la creación de perfiles falsos o la falsificación de información. LinkedIn no dio detalles sobre cómo llevó a cabo su investigación. "Nuestras políticas dejan en claro que cada perfil de LinkedIn debe representar a una persona real. Estamos constantemente actualizando nuestras defensas técnicas para identificar mejor los perfiles falsos y eliminarlos de nuestra comunidad, como lo hemos hecho en este caso", dijo la portavoz de LinkedIn, Leonna Spilman, en un comunicado. declaración. "Al final del día, se trata de asegurarse de que nuestros miembros puedan conectarse con personas reales, y estamos enfocados en garantizar que tengan un entorno seguro para hacer precisamente eso". Buscando alguna evidencia de que Keenan Ramsey es quien dice ser A primera vista, el perfil de Ramsey se parece a muchos otros en LinkedIn: la foto insulsa con una sonrisa ligeramente rígida; una descripción repetitiva de RingCentral, la compañía de software donde dice que trabaja; y una breve historia laboral. Afirma tener una licenciatura en negocios de la Universidad de Nueva York y da una lista genérica de intereses: CNN, Unilever, Amazon, la filántropa Melinda French Gates. Pero había rarezas en la foto: el arete único y el cabello extraño, la ubicación de sus ojos, el fondo borroso. Por sí solas, cualquiera de estas pistas podría explicarse, pero juntas despertaron las sospechas de DiResta. "La posición de las características en la cara es algo que si has visto esto suficientes veces, simplemente te familiarizas con él", dijo DiResta. La tecnología que probablemente se usó para crear la foto de Ramsey, conocida como red adversarial generativa, o GAN, existe solo desde 2014, pero en ese tiempo se ha vuelto rápidamente mejor en la creación de rostros realistas mediante el entrenamiento en grandes conjuntos de datos de fotos de personas reales. Hoy en día, los sitios web permiten que cualquier persona descargue caras generadas por computadora de forma gratuita. “En el curso de mi trabajo, observo muchas de estas cosas, principalmente en el contexto de las operaciones de influencia política”, dijo DiResta. "Pero de repente, aquí había una persona falsa en mi bandeja de entrada que se comunicaba conmigo". Para confirmar si Ramsey era realmente una "persona falsa", NPR investigó los antecedentes descritos en su perfil de LinkedIn. RingCentral no tiene ningún registro de un empleado llamado Keenan Ramsey. Tampoco Language I/O, uno de los empleadores anteriores que mencionó. Y "los registros de la NYU no reflejan que nadie llamado Keenan Ramsey haya recibido un título universitario de ningún tipo", dijo a NPR el portavoz de la universidad, John Beckman. DiResta inicialmente pensó que el mensaje de Ramsey podría ser un intento de phishing, tratando de engañarla para que revelara información confidencial. Sospechó aún más cuando recibió un mensaje de LinkedIn idéntico, incluidos los mismos emojis, de otra persona que afirmaba ser un empleado de RingCentral y cuya foto de perfil también parecía generada por computadora. Luego recibió un correo electrónico de un tercer empleado de RingCentral, que hacía referencia al mensaje de LinkedIn de Ramsey. Pero cuando buscó el nombre de este, parecía pertenecer a una persona real que trabajaba en la empresa. Intrigados, DiResta y Goldstein, un becario postdoctoral en Stanford, comenzaron a explorar LinkedIn en busca de perfiles como el de Ramsey. "En el lapso de unas pocas semanas, encontramos más de mil cuentas que parecen ser cuentas falsas con imágenes generadas por GAN", dijo Goldstein. "Y cuando buscamos a estas personas en Internet, no encontramos ninguna evidencia de ellas en otros lugares, lo cual es raro". Los perfiles que vieron también tenían otros patrones en común. Muchos describieron sus trabajos con variaciones en títulos como gerente de desarrollo comercial, ejecutivo de desarrollo de ventas, gerente de crecimiento y especialista en generación de demanda. A menudo tenían una breve lista de dos o tres antiguos empleadores, a veces nombres muy conocidos como Amazon y Salesforce, sin detalles sobre esas experiencias. Cuando NPR se puso en contacto con algunas de las empresas que figuraban como antiguos empleadores, ninguna tenía registros de los supuestos empleados que trabajaban allí. Muchos de los perfiles también lucían credenciales educativas sorprendentemente similares. Por ejemplo, algunos afirmaron haber recibido títulos de licenciatura en administración de empresas, incluso de escuelas, como la Universidad de Columbia, que no ofrecen una licenciatura en negocios. NPR contactó a 28 universidades sobre 57 de los perfiles. De las 21 escuelas que respondieron, ninguna tenía registros de ninguno de los supuestos graduados. "No es así como hacemos negocios", dice RingCentral. Por supuesto, las personas rellenan sus currículums, y no hay garantía de que solo porque el perfil de LinkedIn de alguien diga que trabaja en una empresa, realmente lo haga. Pero la aparición de personas aparentemente falsas que utilizan fotografías generadas por computadora lleva el engaño a nuevas alturas en una red social profesional como LinkedIn, donde las personas envían con frecuencia mensajes a personas que no conocen cuando están buscando trabajo, reclutando candidatos o solo trabajo en red. "La expectativa cuando estás en las plataformas de redes sociales es que estás tratando con otros humanos", dijo Bonnie Patten, directora ejecutiva del organismo de control sin fines de lucro Truth in Advertising. "Y que no estás lidiando con una persona generada por IA que está siendo manipulada por alguien detrás de la cortina". De los perfiles que identificaron los investigadores de Stanford, 60 afirmaron ser empleados de RingCentral. Pero la compañía dice que ninguno de ellos ha trabajado allí. La persona que envió un correo electrónico a DiResta siguiendo el mensaje de LinkedIn de Ramsey era un empleado real de RingCentral, pero dejó la empresa en febrero (esta persona no respondió a los intentos de NPR de contactarlos). RingCentral dijo que había contratado a otras empresas para llegar a clientes potenciales y organizar reuniones con los vendedores internos de RingCentral, lo que se conoce en el negocio como "generación de clientes potenciales". Y RingCentral dice que uno de estos proveedores externos creó perfiles falsos, aunque se negó a nombrar al proveedor. NPR no ha podido confirmar la identidad del proveedor o quién creó los perfiles. Heather Hinton, directora de seguridad de la información de RingCentral, dijo que no sabía que alguien estuviera creando perfiles ficticios de LinkedIn en nombre de RingCentral y no aprobaba la práctica. "Así no es como hacemos negocios", dijo a NPR en una entrevista. "Esto fue para nosotros un recordatorio de que la tecnología está cambiando más rápido de lo que podemos seguir incluso aquellos de nosotros que la estamos viendo. Y solo tenemos que estar cada vez más atentos a lo que hacemos y lo que nuestros proveedores van a hacer en nuestro nombre". La portavoz de RingCentral, Mariana Leventis, dijo en un comunicado: "Si bien esta puede haber sido una práctica aceptada por la industria en el pasado, en el futuro no creemos que sea una práctica aceptable y va en contra de nuestro compromiso con nuestros clientes. Estamos tomando medidas específicas". para actualizar nuestro enfoque de generación de leads y para educar a nuestra gente sobre lo que es y no es aceptable en términos de cómo nos comunicamos con clientes y socios". Un CEO dice: "Pensé que eran personas reales". Varias de las otras empresas que figuran como empleadores actuales en los perfiles aparentemente falsos le dijeron a NPR lo mismo: usaron proveedores externos para atraer clientes potenciales en LinkedIn. Bob Balderas, director ejecutivo de Bob's Containers en Austin, Texas, le dijo a NPR que había contratado a una empresa llamada airSales para impulsar el negocio de su pequeña empresa, que reutiliza contenedores de envío para hogares y oficinas. Balderas dice que sabía que airSales estaba creando perfiles de LinkedIn para personas que se describían a sí mismas como representantes de desarrollo comercial de Bob's Containers. Pero, dijo, "pensé que eran personas reales que trabajaban para airSales". Balderas dijo que no se sentía cómodo con el uso de fotos generadas por IA. “Estamos enfocados en el consumidor. Esto no crea confianza”, dijo. Dijo que Bob's Containers dejó de trabajar con airSales antes de que NPR preguntara sobre los perfiles. El CEO de AirSales, Jeremy Camilloni, confirmó que Bob's Containers era un cliente. Dijo que airSales contrata a contratistas independientes para brindar servicios de marketing y "siempre ha sido claro" con sus clientes al respecto. Camilloni dijo que estos contratistas pueden crear perfiles de LinkedIn "a su propia discreción", pero la empresa no los requiere ni se involucra. Y dijo que señala a los contratistas los términos de servicio de LinkedIn. "Hasta donde yo sé, no hay reglas específicas para las imágenes de perfil o el uso de avatares", dijo, afirmando que "esto es realmente común entre los usuarios de tecnología en LinkedIn". Agregó: "Si esto cambia, avisaremos a nuestros contratistas en consecuencia". LinkedIn dice que cualquier perfil no auténtico, incluidos aquellos que usan imágenes que no representan a un usuario real, va en contra de sus reglas. "No use una imagen de otra persona, o cualquier otra imagen que no sea su semejanza, para su foto de perfil", establece su página de Políticas de la comunidad profesional. Vender "avatares" de LinkedIn por 1.300 dólares al mes Los perfiles falsos no son un fenómeno nuevo en LinkedIn. Al igual que otras redes sociales, ha luchado contra los bots y las personas que se tergiversan. Pero la creciente disponibilidad y calidad de las fotos generadas por IA crea nuevos desafíos para las plataformas en línea. LinkedIn eliminó más de 15 millones de cuentas falsas en los primeros seis meses de 2021, según su informe de transparencia más reciente. Dice que la gran mayoría se detectaron durante el registro, y la mayor parte del resto fueron encontrados por sus sistemas automáticos, antes de que cualquier miembro de LinkedIn los informara. Spilman, el vocero de LinkedIn, dice que la compañía está "trabajando constantemente para mejorar nuestros modelos para asegurarnos de que estamos capturando y eliminando perfiles que usan imágenes generadas por computadora". En estos días, muchas más empresas están buscando formas de encontrar clientes en línea. "Las ventas tradicionales de empresa a empresa se han conocido en persona: te conozco en una conferencia, bebes y cenas, tratas de desarrollar una relación personal", dijo Hee Gun Eom, cofundador y director ejecutivo de Salezilla, un empresa que se especializa en marketing por correo electrónico automatizado. Pero todo eso cambió durante la pandemia. "Gran parte de la prospección y el desarrollo de nuevos negocios se han vuelto digitales: en las redes sociales, LinkedIn, correo electrónico", dijo. "Acabamos de ver un gran impulso en las personas que intentan enviar correos electrónicos o que desean crear nuevos negocios a través de medios virtuales". (Salezilla no ofrece campañas de LinkedIn y dice que no usa imágenes generadas por IA). NPR intentó contactar a más de una docena de empresas que figuran como empleadores en los perfiles identificados por los investigadores de Stanford que ofrecen servicios de marketing de LinkedIn a otras empresas. Una de esas empresas, Renova Digital, anunció en su sitio web un paquete "ProHunter" que incluye dos bots o "perfiles de avatar de marca completa" y mensajes ilimitados para clientes dispuestos a pagar $1,300 al mes. La compañía eliminó la descripción de sus servicios y precios de su sitio web después de que NPR preguntara por ellos. El fundador de Renova Digital, Philip Foti, le dijo a NPR en un correo electrónico que probó fotos generadas por IA en el pasado, pero dejó de hacerlo. "Decidimos que no era coherente con nuestros valores y que no valía la pena las ganancias de marketing", escribió. Además de eliminar la mayoría de los perfiles identificados por los investigadores de Stanford, LinkedIn también eliminó las páginas de dos empresas de generación de prospectos que figuran en muchos de esos perfiles: LIA, con sede en Delhi, India, y Vendisys, con sede en San Francisco. Por $ 300 al mes, los clientes de LIA pueden elegir un "avatar generado por IA" de cientos que están "listos para usar", según el sitio web de LIA, del que recientemente se eliminó toda la información excepto su logotipo. LIA no respondió a múltiples solicitudes de comentarios. El presidente ejecutivo de Vendisys, Erik Paulson, se negó a comentar. Tan prosaico como es usar perfiles generados por computadora para vender cosas, la difusión de la tecnología preocupa al experto en análisis forense digital Farid. A medida que avanza la inteligencia artificial, él y otros investigadores esperan que sea más difícil detectar imágenes creadas por computadora a simple vista, sin mencionar el audio y el video falsos, como el video muy manipulado que circuló recientemente en las redes sociales y que pretendía mostrar al presidente ucraniano Volodymyr Zelenskyy llamando a sus soldados a rendirse. Los rostros generados por computadora son "el canario en la mina de carbón", dijo Farid. "Es el comienzo de lo que viene a continuación, que son falsificaciones completas de audio y video dirigidas a una persona específica".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd