Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6301

Loading...
Subimos un video falso a ocho redes sociales. Solo una les dijo a los usuarios que no era real.
washingtonpost.com · 2025

A medida que las nuevas herramientas de inteligencia artificial generaban una avalancha de videos e imágenes falsos cada vez más realistas en línea, las empresas tecnológicas desarrollaron un plan para evitar la confusión masiva.

Empresas como OpenAI, creadora de ChatGPT, se comprometieron a dotar a cada video falso de un marcador inviolable para indicar que fue generado por IA. Las plataformas de redes sociales, como Facebook y TikTok, afirmaron que harían visibles estos marcadores para los usuarios, lo que permitiría a los espectadores saber cuándo el contenido era falso y a los expertos rastrear su origen.

Se suponía que el sistema proporcionaría una verificación digital para ayudar a prevenir las falsificaciones profundas que perturbaban las elecciones o incitaban a la agitación. Las empresas tecnológicas lo incorporaron como parte de su respuesta a los reguladores gubernamentales que solicitaban salvaguardas sobre el poder de la IA.

Sin embargo, las pruebas realizadas por The Washington Post en ocho importantes plataformas sociales revelaron que solo una de ellas añadió una advertencia a un video de IA subido. Esta advertencia, realizada por YouTube de Google, se ocultó dentro de una descripción adjunta al clip.

Además, todas las plataformas analizadas eliminaron el marcador digital del clip que revelaba que era sintético, impidiendo que se inspeccionara su procedencia. El vídeo generado con IA tiene ahora un poder disruptivo mayor que nunca gracias a los avances técnicos que permiten que los clips falsos sean indistinguibles de las grabaciones reales y a la amplia disponibilidad de la tecnología. Sin embargo, ninguna de las plataformas analizadas cumplía plenamente el estándar de etiquetado de contenido con IA que las empresas tecnológicas han promocionado durante años, según The Post.

Los recientes avances en IA dejan a las audiencias en línea "incapaces de afrontar la escala y el realismo" del contenido con IA, afirmó Arosha Bandara, investigador de la Open University de Gran Bretaña, quien ha estudiado el etiquetado de contenido generado con IA. Añadió que es importante contar con un sistema sólido de divulgación. Una ley firmada por el gobernador de California, Gavin Newsom, la semana pasada exigirá a partir del próximo año que las grandes plataformas en línea publiquen de forma visible cualquier información sobre un contenido que pueda indicar si fue alterado o generado con IA.

El Post probó las plataformas utilizando un video generado con Sora, la nueva y potente aplicación de video lanzada por OpenAI.

Christa Muldoon, portavoz de Google, afirmó que el estándar de Credenciales de Contenido para marcar archivos multimedia que The Post probó forma parte de su estrategia para brindar acceso a la información sobre la creación del contenido. "Reconocemos que su adopción llevará tiempo y este trabajo está en curso", afirmó.

Meta, OpenAI, TikTok, Snapchat y X no respondieron a las solicitudes de comentarios. LinkedIn y Pinterest declinaron hacer comentarios oficialmente. The Post mantiene una colaboración con OpenAI para la creación de contenido.

El auge de la IA ha aumentado la preocupación por el contenido manipulado o engañoso. En 2021, seis empresas, entre ellas Microsoft, Adobe y la BBC, se asociaron para desarrollar Credenciales de Contenido, un estándar técnico para añadir metadatos a los archivos multimedia que revelan cómo se creó su contenido.

Los archivos etiquetados con Credenciales de Contenido contienen metadatos a prueba de manipulaciones, que contienen detalles como el modelo de cámara que capturó la grabación, el software utilizado para editarla o el sistema de inteligencia artificial que la generó.

Los datos buscan ofrecer "un vistazo al historial del contenido, disponible para que cualquiera pueda acceder en cualquier momento", según la Coalición para la Procedencia y Autenticidad del Contenido, el grupo que supervisa el estándar. El grupo cuenta con cientos de miembros, entre ellos fabricantes de chips como Intel, fabricantes de cámaras como Sony y Nikon, organizaciones de noticias como Associated Press, gigantes tecnológicos como Google y Meta, y sus rivales emergentes como OpenAI y TikTok.

Pero las Credenciales de Contenido son un sistema voluntario, y si las plataformas de redes sociales no implementan el estándar, es prácticamente inútil.

Para probar qué redes sociales implementan completamente el estándar, The Post generó un video con Sora y confirmó que incluía los datos de las Credenciales de Contenido, que mencionaban a Sora e incluían las frases "Creado con IA Generativa" y "Emitido por OpenAI". El mismo clip se publicó en ocho plataformas sociales con la configuración predeterminada para una nueva publicación.

Ninguna de las plataformas que The Post probó conservó los datos de las Credenciales de Contenido en el video ni permitió a los usuarios acceder a ellos. Solo YouTube mostró alguna indicación de que el video no era real, pero la divulgación de la plataforma se añadió a la descripción adjunta al video, que solo es visible para los usuarios que hacen clic. Describió el clip como "Contenido alterado o sintético" y no mencionó la IA.

Google, propietario de YouTube; Meta, propietario de Facebook e Instagram; y Microsoft, propietario de LinkedIn y OpenAI, son miembros del comité directivo de la coalición que impulsa las Credenciales de Contenido. TikTok es miembro general, al igual que Twitter, hasta que Elon Musk adquirió la compañía y la renombró X.

TikTok y LinkedIn anunciaron el año pasado que implementarían Credenciales de Contenido para etiquetar videos generados por IA. Meta anunció el año pasado que usaría el estándar para etiquetar imágenes generadas por IA, y Pinterest hizo lo mismo en abril de este año, pero ninguno de los dos anunció que añadiría marcadores a los videos. Snapchat no parece tener vínculos con Credenciales de Contenido.

Andrew Jenks, presidente ejecutivo de la coalición que impulsa Credenciales de Contenido, declaró que los usuarios deben tener acceso a "cómo se creó el contenido, incluyendo qué herramientas se utilizaron". La industria "debe seguir evolucionando sus enfoques para garantizar que este nivel de transparencia sea posible y eficaz", afirmó.

Google, OpenAI y otras empresas de IA se comprometieron durante la administración Biden a desarrollar sistemas como las Credenciales de Contenido para garantizar que los usuarios sepan cuándo el contenido es generado por IA.

Sora, publicada este mes por OpenAI, representa una prueba crucial para el potencial creativo y comercial de los videos de IA de alta realismo, pero también para sus posibles desventajas. La aplicación puede generar clips cortos que insertan la imagen de una persona real en prácticamente cualquier escenario. Los usuarios pueden compartir su imagen para que otros la incluyan en sus creaciones.

En una página web titulada "Lanzamiento responsable de Sora", OpenAI afirmó que añade metadatos de Credenciales de Contenido a todos los vídeos, calificándolo como una "firma estándar de la industria". Las pruebas del Post demuestran que la industria no utiliza dicho estándar.

OpenAI también mencionó otras mitigaciones, que presentan sus propias deficiencias.

La compañía añade un logotipo transparente o una marca de agua a todos los clips de Sora, pero sugirió que podría eliminarse en el futuro. Han surgido servicios en línea que eliminan la marca de agua, y una versión de Sora que los desarrolladores de software pueden usar no añade ni la marca de agua ni los metadatos de Credenciales de Contenido. Los usuarios del plan "pro" pueden descargar algunos vídeos generados por Sora sin marca de agua, según la documentación de la compañía. OpenAI también afirmó que integra marcadores de autenticidad invisibles en los videos de Sora y ha desarrollado un sistema que puede detectarlos con alta precisión. Sin embargo, la herramienta es solo para uso interno. El proyecto SynthID de Google hace algo similar, pero al igual que el detector de Sora, la herramienta no está disponible para el público.

Otras empresas venden herramientas que buscan detectar contenido manipulado a partir de patrones en una imagen o video. Estas herramientas han demostrado ser poco fiables, y las plataformas de redes sociales no las han implementado ampliamente.

Mientras tanto, la industria tecnológica continúa desarrollando y lanzando productos que permiten a cualquiera generar videoclips cada vez más convincentes en segundos.

Una investigación realizada por Bandara, de la Universidad Abierta, junto con Dilrukshi Gamage, de la Universidad de Colombo (Sri Lanka), descubrió que etiquetar el contenido como generado por IA era eficaz para informar a la gente de su falsedad.

Pero encontrar una manera fiable de proporcionar dichas etiquetas está resultando complicado. «La posible distopía es que todo el contenido, todo el vídeo, toda la fotografía, deba ser desconfiado hasta que se pueda autenticar positivamente su autenticidad», afirmó Bandara.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd