Problema 6737
Una herramienta de YouTube que utiliza la biometría de los creadores para ayudarles a eliminar vídeos generados por IA que explotan su imagen también permite a Google entrenar sus modelos de inteligencia artificial con esos datos sensibles, según informaron expertos a CNBC.
En respuesta a la preocupación de los expertos en propiedad intelectual, YouTube declaró a CNBC que Google nunca ha utilizado los datos biométricos de los creadores para entrenar modelos de IA y que está revisando el lenguaje utilizado en el formulario de registro de la herramienta para evitar confusiones. Sin embargo, YouTube declaró a CNBC que no cambiará su política subyacente.
La discrepancia pone de relieve una brecha más amplia dentro de Alphabet, donde Google está expandiendo agresivamente sus esfuerzos de IA mientras que YouTube trabaja para mantener la confianza de los creadores y titulares de derechos que dependen de la plataforma para sus negocios.
YouTube está ampliando su "detección de semejanza", una herramienta que la compañía presentó en octubre y que detecta cuándo se usa el rostro de un creador sin su permiso en deepfakes, el término utilizado para describir videos falsos creados con IA. La función se está expandiendo a millones de creadores en el Programa de Socios de YouTube a medida que el contenido manipulado por IA se vuelve más común en las redes sociales.
La herramienta escanea los videos subidos a YouTube para identificar dónde el rostro de un creador puede haber sido alterado o generado por inteligencia artificial. Los creadores pueden decidir si solicitan la eliminación del video, pero para usar la herramienta, YouTube requiere que suban una identificación oficial y un video biométrico de su rostro. La biometría es la medición de las características físicas para verificar la identidad de una persona.
Los expertos afirman que, al vincular la herramienta a la política de privacidad de Google, YouTube ha dejado la puerta abierta a un futuro uso indebido de la biometría de los creadores. La política establece que el contenido público, incluida la información biométrica, puede usarse "para ayudar a entrenar los modelos de IA de Google y desarrollar productos y funciones".
"La detección de semejanza es una función completamente opcional, pero requiere una referencia visual para funcionar", declaró Jack Malon, portavoz de YouTube, a CNBC. Nuestro enfoque con respecto a esos datos no cambiará. Como nuestro Centro de Ayuda ha indicado desde el lanzamiento, los datos proporcionados para la herramienta de detección de semejanza solo se utilizan para fines de verificación de identidad y para impulsar esta función de seguridad específica.
YouTube declaró a CNBC que está "considerando maneras de aclarar el lenguaje del producto". La compañía no ha especificado qué cambios específicos se implementarán en la redacción ni cuándo entrarán en vigor.
Los expertos se mantienen cautelosos, afirmando que expresaron sus preocupaciones sobre la política a YouTube hace meses.
"A medida que Google compite en IA y los datos de entrenamiento se convierten en oro estratégico, los creadores deben reflexionar detenidamente sobre si quieren que una plataforma controle su rostro en lugar de que sea su propiedad", declaró Dan Neely, director ejecutivo de Vermillio, empresa que ayuda a las personas a proteger su imagen del uso indebido y facilita la concesión de licencias seguras de contenido autorizado. "Tu imagen será uno de los activos más valiosos en la era de la IA, y una vez que cedas ese control, es posible que nunca lo recuperes".
Vermillio y Loti son empresas independientes que trabajan con creadores, celebridades y medios de comunicación para supervisar y hacer cumplir los derechos de imagen en internet. Con los avances en la generación de vídeos con IA, su utilidad ha aumentado para los titulares de derechos de propiedad intelectual.
El director ejecutivo de Loti, Luke Arrigoni, afirmó que los riesgos de la actual política biométrica de YouTube son enormes.
"Dado que la autorización permite que alguien asocie ese nombre a la biometría real del rostro, se podría crear algo más sintético que se parezca a esa persona", añadió Arrigoni.
Tanto Neely como Arrigoni afirmaron que actualmente no recomendarían a ninguno de sus clientes que se registrara en la detección de semejanzas de YouTube.
El director de productos para creadores de YouTube, Amjad Hanif, explicó que YouTube creó su herramienta de detección de semejanzas para operar "a la escala de YouTube", donde se publican cientos de horas de contenido nuevo cada minuto. La herramienta estará disponible para los más de 3 millones de creadores del Programa de Socios de YouTube a finales de enero, según Hanif.
"Nos va bien cuando a los creadores les va bien", declaró Hanif a CNBC. "Estamos aquí como guardianes y promotores del ecosistema de creadores, por lo que estamos invirtiendo en herramientas para apoyarlos en ese proceso".
El lanzamiento se produce en un momento en que las herramientas de vídeo generadas por IA mejoran rápidamente en calidad y accesibilidad, lo que plantea nuevas preocupaciones para los creadores cuya imagen y voz son fundamentales para su negocio.
El creador de YouTube, Mikhail Varshavski, un médico conocido como Doctor Mike en la plataforma de vídeo, comentó que utiliza la herramienta de detección de semejanzas del servicio para revisar docenas de vídeos manipulados por IA a la semana.
Varshavski lleva casi una década en YouTube y ha acumulado más de 14 millones de suscriptores en la plataforma. Crea videos en los que reacciona a dramas médicos televisivos, responde preguntas sobre modas de salud y desmiente mitos. Confía en su credibilidad como médico certificado para informar a sus espectadores.
Los rápidos avances en IA han facilitado que actores maliciosos copien su rostro y voz en videos deepfake que podrían ofrecer a sus espectadores consejos médicos engañosos, afirmó Varshavski.
La primera vez que se topó con un deepfake de sí mismo fue en TikTok, donde un doble generado por IA promocionaba un suplemento "milagroso".
"Obviamente me asustó, porque he pasado más de una década invirtiendo en ganarme la confianza de la audiencia, diciéndoles la verdad y ayudándoles a tomar buenas decisiones en materia de salud", dijo. "Ver a alguien usar mi imagen para engañar a alguien y que compre algo que no necesita o que podría perjudicarlo me asustó muchísimo en esa situación". Herramientas de generación de video con IA como Veo 3 de Google y Sora de OpenAI han facilitado considerablemente la creación de deepfakes de celebridades y creadores como Varshavski. Esto se debe a que su imagen aparece con frecuencia en los conjuntos de datos que utilizan las empresas tecnológicas para entrenar sus modelos de IA.
Veo 3 se entrena con un subconjunto de los más de 20 mil millones de videos subidos a YouTube, según informó CNBC en julio. Esto podría incluir varios cientos de horas de video de Varshavski. Los deepfakes se han vuelto más comunes y proliferantes, afirmó Varshavski. "He visto canales creados que utilizan este tipo de deepfakes de IA como arma, ya sea para engañar a la gente para que compre un producto o simplemente para intimidar a alguien".
Actualmente, los creadores no tienen forma de monetizar el uso no autorizado de su imagen, a diferencia de las opciones de reparto de ingresos disponibles a través del sistema Content ID de YouTube para material protegido por derechos de autor, que suelen utilizar empresas con grandes catálogos de derechos de autor. Hanif, de YouTube, afirmó que la compañía está explorando cómo un modelo similar podría funcionar en el futuro para el uso de imágenes generadas por IA.
A principios de este año, YouTube ofreció a los creadores la opción de permitir que empresas de IA externas entrenaran sus videos. Hanif afirmó que millones de creadores se han unido a ese programa, sin promesas de compensación.
Hanif explicó que su equipo sigue trabajando para mejorar la precisión del producto, pero que las pruebas iniciales han sido exitosas, aunque no proporcionó métricas de precisión.
En cuanto a la actividad de eliminación en la plataforma, Hanif afirmó que sigue siendo baja, en gran medida porque muchos creadores optan por no eliminar los videos marcados.
"Les alegrará saber que está ahí, pero no sentirán que merezca la pena eliminarlo", afirmó Hanif. "Con diferencia, la acción más común es decir: 'Lo he visto, pero no me importa'".
Agentes y defensores de derechos humanos declararon a CNBC que la baja tasa de eliminación probablemente se deba a la confusión y la falta de conocimiento, más que a la comodidad con el contenido de IA.