Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4151

Loading...
LinkedIn está entrenando a la IA sobre ti, a menos que optes por no hacerlo con esta configuración
washingtonpost.com · 2024

Es posible que hayas utilizado LinkedIn para buscar un nuevo empleo o para mantenerte en contacto con colegas de los primeros días de tu carrera, pero LinkedIn también te ha estado utilizando a ti.

La semana pasada, la red profesional agregó una nueva configuración de privacidad de datos que sorprendió a muchos. De manera predeterminada, se otorgaba permiso para usar la información compartida en el servicio para entrenar a su inteligencia artificial. A menos que desactives esta nueva configuración, LinkedIn considera que todo es válido: tus publicaciones, artículos e incluso tus videos.

Para desactivarla, inicia sesión en tu cuenta de LinkedIn, toca o haz clic en tu foto de rostro y abre la configuración. Luego, selecciona "Privacidad de datos" y desactiva la opción debajo de "Datos para la mejora de la IA generativa".

Activar ese interruptor evitará que la empresa proporcione tus datos a su IA, con una salvedad clave: los resultados no son retroactivos. LinkedIn dice que ya comenzó a entrenar a sus modelos de IA con contenido de usuario y que no hay forma de deshacerlo.

El portavoz Greg Snapper dijo que LinkedIn usa los datos de las personas para entrenar a la IA para "ayudar a las personas de todo el mundo a crear oportunidades económicas" desarrollando herramientas que les ayuden a encontrar nuevos empleos y aprender nuevas habilidades. "Si lo hacemos bien, podemos ayudar a mucha gente a gran escala", dijo.

A LinkedIn, entonces, le encantaría que sus funciones de IA le permitieran conseguir un trabajo en el que se le valorara de manera justa por la calidad de su trabajo. Pero es difícil no pensarlo también de otra manera: ¿está LinkedIn valorando de manera justa el trabajo que usted ha contribuido a mejorar su IA? ¿Un trabajo por el que no recibió una compensación directa o por el que tal vez no le dijeron que estaban usando?

Para algunos, eso parecerá un intercambio justo. Otros están inquietos por cómo LinkedIn manejó la situación.

"Las herramientas de exclusión voluntaria difíciles de encontrar casi nunca son una forma efectiva de permitir que los usuarios ejerzan sus derechos de privacidad", dijo F. Mario Trujillo, abogado del personal de la Electronic Frontier Foundation. "Si las empresas realmente quieren ofrecer a los usuarios una opción, deberían presentarles una opción clara de consentimiento de 'sí' o 'no'".

LinkedIn no es la única empresa que convierte los datos públicos de los usuarios en material de formación de IA. Tus chats con ChatGPT de OpenAI y Gemini de Google se utilizan para mejorar el rendimiento de esos chatbots a lo largo del tiempo y, de manera similar, te exigen que optes por no participar en lugar de participar. Y durante una reciente audiencia en el Parlamento australiano, la directora de política de privacidad de Meta, Melinda Claybaugh, confirmó que la compañía había estado recopilando fotos y textos públicos en Facebook e Instagram para entrenar a sus modelos de IA durante años más de lo esperado.

LinkedIn, que es propiedad de Microsoft, dice que ha estado notificando a los usuarios sobre su política de datos de IA a través de correos electrónicos, mensajes de texto y banners en su sitio web. Pero aún así tomó a muchos usuarios desprevenidos --- y la medida parece darles menos tiempo para responder que incluso su empresa matriz ha ofrecido.

En agosto, Microsoft anunció que comenzaría a entrenar su herramienta AI Copilot en función de las interacciones que las personas tuvieron con ella, junto con los datos recopilados del uso de su motor de búsqueda Bing y su fuente de noticias Microsoft Start.

Pero a diferencia de LinkedIn, Microsoft dijo que informaría a los consumidores sobre la opción de optar por no participar en la recopilación de datos en octubre, y solo comenzaría a entrenar a sus modelos de IA 15 días después de que la opción esté disponible.

¿Por qué LinkedIn no hizo un lanzamiento igualmente informado? Snapper no dijo si se había considerado. "Como empresa, realmente nos centramos en '¿Cómo podemos hacerlo mejor la próxima vez?'", dijo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd