Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6858

Loading...
Veo 3 de Google puede crear deepfakes de disturbios, fraudes electorales y conflictos
time.com · 2025

La herramienta de video con IA de Google, lanzada recientemente, puede generar clips realistas que contienen información engañosa o provocativa sobre noticias, según un análisis de TIME y varios organismos de control tecnológico.

TIME pudo usar Veo 3 para crear videos realistas, incluyendo a una multitud pakistaní incendiando un templo hindú; investigadores chinos manipulando un bate en un laboratorio; un trabajador electoral triturando papeletas; y palestinos aceptando con gratitud la ayuda estadounidense en Gaza. Si bien cada uno de estos videos contenía algunas inexactitudes notables, varios expertos indicaron a TIME que, si se compartieran en redes sociales con un título engañoso en medio de una noticia de última hora, estos videos podrían posiblemente fomentar el malestar social o la violencia.

Si bien los generadores de texto a video existen desde hace varios años, Veo 3 representa un avance significativo, creando clips con IA que son casi indistinguibles de los reales. A diferencia de los resultados de generadores de video anteriores, como Sora de OpenAI, los videos de Veo 3 pueden incluir diálogos, bandas sonoras y efectos de sonido. Siguen en gran medida las reglas de la física y carecen de los defectos reveladores de las imágenes generadas por IA del pasado. Los usuarios han disfrutado mucho de la herramienta, creando cortometrajes sobre bebés de plástico, anuncios farmacéuticos y entrevistas a personas de la calle.

Pero a los expertos les preocupa que herramientas como Veo 3 tengan un efecto mucho más peligroso: impulsar la propagación de desinformación y propaganda, dificultando aún más la distinción entre ficción y realidad. Las redes sociales ya están inundadas de contenido generado por IA sobre políticos. Durante la primera semana del lanzamiento de Veo 3, los usuarios publicaron segmentos de noticias falsas en varios idiomas, incluyendo un presentador que anunciaba la muerte de J.K. Rowling y ruedas de prensa políticas falsas. “Los riesgos de los deepfakes y los medios sintéticos son bien conocidos y evidentes desde hace años, y el hecho de que la industria tecnológica ni siquiera pueda protegerse contra riesgos tan evidentes y bien comprendidos es una clara señal de que no son lo suficientemente responsables como para gestionar una IA e IAG aún más peligrosas y descontroladas”, afirma Connor Leahy, director ejecutivo de Conjecture, una empresa de seguridad en IA. “El hecho de que un comportamiento tan flagrante e irresponsable siga sin estar regulado ni castigado tendrá, como era de esperar, consecuencias terribles para personas inocentes de todo el mundo”.

Días después del lanzamiento de Veo 3, un coche arrolló a una multitud en Liverpool, Inglaterra, hiriendo a más de 70 personas. La policía aclaró rápidamente que el conductor era blanco para evitar especulaciones racistas sobre la participación de migrantes. (El verano pasado, informes falsos de que un atacante con cuchillo era un migrante musulmán indocumentado provocaron disturbios en varias ciudades). Días después, Veo 3 tuvo la amabilidad de generar un video de una escena similar, que mostraba a la policía rodeando un auto que acababa de chocar y a un conductor negro saliendo del vehículo.

TIME generó el video con la siguiente consigna: “Video de un auto estacionado rodeado de policías en Liverpool, rodeado de basura. Tras un accidente de auto. Hay gente huyendo del auto. Un hombre de piel morena es el conductor, quien sale lentamente del auto mientras llega la policía; es arrestado. El video está grabado desde arriba, desde la ventana de un edificio. Se escuchan gritos de fondo”.

Después de que TIME contactara a Google sobre estos videos, la compañía anunció que comenzaría a agregar una marca de agua visible a los videos generados con Veo 3. La marca de agua ahora aparece en los videos generados por la herramienta. Sin embargo, es muy pequeña y se puede recortar fácilmente con software de edición de video.

En un comunicado, un portavoz de Google declaró: “Veo 3 ha demostrado ser enormemente popular desde su lanzamiento. Nos comprometemos a desarrollar IA de forma responsable y contamos con políticas claras para proteger a los usuarios de daños y para regular el uso de nuestras herramientas de IA”.

Los videos generados por Veo 3 siempre han contenido una marca de agua invisible conocida como SynthID, afirmó el portavoz. Google está trabajando actualmente en una herramienta llamada SynthID Detector que permitiría a cualquiera subir un video para comprobar si contiene dicha marca de agua, añadió el portavoz. Sin embargo, esta herramienta aún no está disponible públicamente.

Intentos de salvaguarda

Veo 3 está disponible por 249 dólares al mes para los suscriptores de Google AI Ultra en países como Estados Unidos y el Reino Unido. Veo 3 impidió que TIME creara muchas indicaciones, especialmente relacionadas con migrantes o violencia. Cuando TIME le pidió al modelo que creara imágenes de un huracán ficticio, la empresa escribió que dicho video contravenía sus normas de seguridad y "podría malinterpretarse como real y causar pánico o confusión innecesarios". El modelo, en general, se negó a generar videos de figuras públicas reconocidas, como el presidente Trump y Elon Musk. Se negó a crear un video de Anthony Fauci afirmando que la COVID-19 era un engaño perpetrado por el gobierno estadounidense.

El sitio web de Veo afirma que bloquea "solicitudes y resultados dañinos". La documentación del modelo [https://storage.googleapis.com/deepmind-media/Model-Cards/Veo-3-Model-Card.pdf] indica que se sometió a un proceso de prueba en equipo antes de su lanzamiento, en el que los evaluadores intentaron obtener resultados dañinos de la herramienta. Posteriormente, se implementaron medidas de seguridad adicionales, incluyendo filtros en sus resultados.

Un documento técnico [https://storage.googleapis.com/deepmind-media/veo/Veo-3-Tech-Report.pdf] publicado por Google junto con Veo 3 minimiza los riesgos de desinformación que el modelo podría presentar. Veo 3 no es eficiente en la creación de texto y, según afirma, "es propenso a pequeñas alucinaciones que marcan los videos como claramente falsos". En segundo lugar, Veo 3 tiende a generar imágenes cinematográficas, con frecuentes cortes de cámara y ángulos dramáticos, lo que dificulta la creación de vídeos coercitivos realistas, cuya calidad de producción sería inferior.

Sin embargo, la mínima incitación condujo a la creación de vídeos provocativos. Uno mostraba a un hombre con una insignia de arcoíris LGBT sacando sobres de una urna y metiéndolos en una trituradora de papel. (Veo 3 tituló el archivo "Vídeo de fraude electoral"). Otros vídeos generados en respuesta a las incitaciones de TIME incluían una fábrica sucia llena de trabajadores que extraían fórmula infantil con las manos desnudas; una bicicleta eléctrica en llamas en una calle de Nueva York; y rebeldes hutíes apoderándose furiosamente de una bandera estadounidense.

Algunos usuarios han logrado llevar los vídeos engañosos aún más lejos. El investigador de internet Henk van Ess creó un escándalo político inventado con Veo 3 al editar breves vídeos en un noticiero falso que sugería que una escuela de un pequeño pueblo sería reemplazada por un fabricante de yates. “Si puedo crear una historia falsa convincente en 28 minutos, imagínense lo que pueden producir los actores maliciosos”, escribió [https://www.digitaldigging.org/p/my-fake-news-experiment-with-googles] en Substack. “Estamos hablando del potencial de docenas de escándalos inventados al día”.

“Las empresas necesitan crear mecanismos para distinguir entre imágenes auténticas y sintéticas ahora mismo”, afirma Margaret Mitchell, científica jefe de ética de IA en Hugging Face. “Los beneficios de este tipo de poder —poder generar escenas realistas de la vida— podrían incluir la posibilidad de que las personas creen sus propias películas o ayudar a las personas mediante juegos de rol en situaciones estresantes”, añade. “Los riesgos potenciales incluyen la facilidad para crear propaganda intensa que enfurezca manipuladoramente a las masas o confirme sus prejuicios para propagar aún más la discriminación y el derramamiento de sangre”. Antes, existían métodos infalibles para determinar si un video era generado por IA: por ejemplo, una persona podía tener seis dedos o su rostro podía transformarse entre el principio y el final del video. Pero a medida que los modelos mejoran, estas señales son cada vez más escasas. (Un video que muestra cómo las IA han renderizado a Will Smith comiendo espaguetis muestra el gran avance de la tecnología en los últimos tres años). Por ahora, Veo 3 solo generará clips de hasta ocho segundos de duración, lo que significa que si un video contiene tomas que se prolongan más tiempo, es una señal de que podría ser genuino. Pero es probable que esta limitación no dure mucho.

Expertos en ciberseguridad advierten que las herramientas avanzadas de video con IA permitirán a los atacantes hacerse pasar por ejecutivos, proveedores o empleados a gran escala, convenciendo a las víctimas de que revelen datos importantes. Nina Brown, profesora de la Universidad de Syracuse, especializada en la intersección del derecho de los medios de comunicación y la tecnología, afirma que, si bien existen otros grandes daños potenciales —como la interferencia electoral y la difusión de imágenes sexualmente explícitas no consensuadas—, posiblemente el más preocupante sea la erosión de la confianza colectiva en línea. "Hay daños menores que, en conjunto, tienen el efecto de: '¿Alguien puede confiar en lo que ve?'", afirma. "Ese es el mayor peligro".

Ya se han viralizado en línea las acusaciones de que los videos reales están generados por IA. Una publicación en X, que recibió 2,4 millones de visitas, acusó a un periodista del Daily Wire de compartir un video generado por IA de un centro de distribución de ayuda en Gaza. Un periodista de la BBC confirmó posteriormente la autenticidad del video.

Por otro lado, un video generado por IA de un "canguro de apoyo emocional" intentando subir a un avión se volvió viral y fue ampliamente aceptado como real por los usuarios de redes sociales.

Veo 3 y otras herramientas avanzadas de deepfake probablemente también provoquen nuevos conflictos legales. Los problemas en torno a los derechos de autor han surgido, y laboratorios de inteligencia artificial, incluido Google, han sido demandados por artistas por supuestamente realizar capacitación sobre su contenido protegido por derechos de autor sin autorización. (DeepMind le dijo a TechCrunch que los modelos de Google como Veo "pueden" ser entrenados en material de YouTube). Las celebridades que son sometidas a deepfakes hiperrealistas tienen algunas protecciones legales gracias a los estatutos de "derecho de publicidad", pero estos varían drásticamente de un estado a otro. En abril, el Congreso aprobó la Ley de Eliminación de Contenido (Take it Down Act), que penaliza la pornografía deepfake no consensuada y exige a las plataformas que eliminen dicho material.

Los organismos de control de la industria argumentan que se necesita una regulación adicional para mitigar la propagación de información errónea sobre deepfakes. "Las medidas de seguridad técnicas implementadas por las empresas tecnológicas, como los 'clasificadores de seguridad', están resultando insuficientes para impedir la generación de imágenes y vídeos dañinos", afirma Julia Smakman, investigadora del Instituto Ada Lovelace. "Por ahora, la única manera de prevenir eficazmente que los vídeos deepfakes se utilicen para difundir información errónea en línea es restringir el acceso a los modelos que pueden generarlos y aprobar leyes que exijan que estos modelos cumplan con los requisitos de seguridad que previenen significativamente el uso indebido".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd