Problema 4151
Es posible que hayas utilizado LinkedIn para buscar un nuevo empleo o para mantenerte en contacto con colegas de los primeros días de tu carrera, pero LinkedIn también te ha estado utilizando a ti.
La semana pasada, la red profesional agregó una nueva configuración de privacidad de datos que sorprendió a muchos. De manera predeterminada, se otorgaba permiso para usar la información compartida en el servicio para entrenar a su inteligencia artificial. A menos que desactives esta nueva configuración, LinkedIn considera que todo es válido: tus publicaciones, artículos e incluso tus videos.
Para desactivarla, inicia sesión en tu cuenta de LinkedIn, toca o haz clic en tu foto de rostro y abre la configuración. Luego, selecciona "Privacidad de datos" y desactiva la opción debajo de "Datos para la mejora de la IA generativa".
Activar ese interruptor evitará que la empresa proporcione tus datos a su IA, con una salvedad clave: los resultados no son retroactivos. LinkedIn dice que ya comenzó a entrenar a sus modelos de IA con contenido de usuario y que no hay forma de deshacerlo.
El portavoz Greg Snapper dijo que LinkedIn usa los datos de las personas para entrenar a la IA para "ayudar a las personas de todo el mundo a crear oportunidades económicas" desarrollando herramientas que les ayuden a encontrar nuevos empleos y aprender nuevas habilidades. "Si lo hacemos bien, podemos ayudar a mucha gente a gran escala", dijo.
A LinkedIn, entonces, le encantaría que sus funciones de IA le permitieran conseguir un trabajo en el que se le valorara de manera justa por la calidad de su trabajo. Pero es difícil no pensarlo también de otra manera: ¿está LinkedIn valorando de manera justa el trabajo que usted ha contribuido a mejorar su IA? ¿Un trabajo por el que no recibió una compensación directa o por el que tal vez no le dijeron que estaban usando?
Para algunos, eso parecerá un intercambio justo. Otros están inquietos por cómo LinkedIn manejó la situación.
"Las herramientas de exclusión voluntaria difíciles de encontrar casi nunca son una forma efectiva de permitir que los usuarios ejerzan sus derechos de privacidad", dijo F. Mario Trujillo, abogado del personal de la Electronic Frontier Foundation. "Si las empresas realmente quieren ofrecer a los usuarios una opción, deberían presentarles una opción clara de consentimiento de 'sí' o 'no'".
LinkedIn no es la única empresa que convierte los datos públicos de los usuarios en material de formación de IA. Tus chats con ChatGPT de OpenAI y Gemini de Google se utilizan para mejorar el rendimiento de esos chatbots a lo largo del tiempo y, de manera similar, te exigen que optes por no participar en lugar de participar. Y durante una reciente audiencia en el Parlamento australiano, la directora de política de privacidad de Meta, Melinda Claybaugh, confirmó que la compañía había estado recopilando fotos y textos públicos en Facebook e Instagram para entrenar a sus modelos de IA durante años más de lo esperado.
LinkedIn, que es propiedad de Microsoft, dice que ha estado notificando a los usuarios sobre su política de datos de IA a través de correos electrónicos, mensajes de texto y banners en su sitio web. Pero aún así tomó a muchos usuarios desprevenidos --- y la medida parece darles menos tiempo para responder que incluso su empresa matriz ha ofrecido.
En agosto, Microsoft anunció que comenzaría a entrenar su herramienta AI Copilot en función de las interacciones que las personas tuvieron con ella, junto con los datos recopilados del uso de su motor de búsqueda Bing y su fuente de noticias Microsoft Start.
Pero a diferencia de LinkedIn, Microsoft dijo que informaría a los consumidores sobre la opción de optar por no participar en la recopilación de datos en octubre, y solo comenzaría a entrenar a sus modelos de IA 15 días después de que la opción esté disponible.
¿Por qué LinkedIn no hizo un lanzamiento igualmente informado? Snapper no dijo si se había considerado. "Como empresa, realmente nos centramos en '¿Cómo podemos hacerlo mejor la próxima vez?'", dijo.