Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 672

Incidentes Asociados

Incidente 3929 Reportes
Deepfake Obama Introduction of Deepfakes

Loading...
Los investigadores han descubierto cómo falsificar videos de noticias con IA
qz.com · 2017

Si pensabas que la difusión desenfrenada de noticias falsas basadas en texto era tan mala como podía ser, piénsalo de nuevo. Generar videos de noticias falsas que no se pueden distinguir de los reales es cada vez más fácil.

Un equipo de científicos informáticos de la Universidad de Washington ha utilizado inteligencia artificial para generar videos visualmente convincentes de Barack Obama diciendo cosas que ha dicho antes, pero en un contexto totalmente nuevo.

En un artículo publicado este mes, los investigadores explicaron su metodología: utilizando una red neuronal entrenada con 17 horas de imágenes de los discursos semanales del expresidente de EE. UU., pudieron generar formas de boca a partir de clips de audio arbitrarios de la voz de Obama. Luego, las formas se texturizaron con calidad fotorrealista y se superpusieron en la cara de Obama en un video de "objetivo" diferente. Finalmente, los investigadores reprogramaron el video de destino para mover el cuerpo de Obama de forma natural al ritmo de la nueva pista de audio.

Este no es el primer estudio que demuestra la modificación de una cabeza parlante en un video. Como informó anteriormente Dave Gershgorn de Quartz, en junio del año pasado, los investigadores de Stanford publicaron una metodología similar para alterar las expresiones faciales pregrabadas de una persona en tiempo real para imitar las expresiones de otra persona haciendo rostros en una cámara web. El nuevo estudio, sin embargo, agrega la capacidad de sintetizar video directamente a partir de audio, generando efectivamente una dimensión superior a partir de una inferior.

En su artículo, los investigadores señalaron varias aplicaciones prácticas de poder generar video de alta calidad a partir de audio, incluida la ayuda a las personas con discapacidad auditiva a leer el audio de los labios durante una llamada telefónica o la creación de personajes digitales realistas en las industrias del cine y los juegos. Pero la consecuencia más preocupante de esta tecnología es su potencial para proliferar noticias falsas basadas en videos. Aunque los investigadores usaron solo audio real para el estudio, pudieron omitir y reordenar las oraciones de Obama sin problemas e incluso usar el audio de un imitador de Obama para lograr resultados casi perfectos. El rápido avance del software de síntesis de voz también proporciona soluciones sencillas y listas para usar para audio falsificado convincente.

Hay algunas buenas noticias. En este momento, la efectividad de esta técnica de síntesis de video está limitada por la cantidad y la calidad del metraje disponible para una persona determinada. Actualmente, señaló el documento, los algoritmos de IA requieren al menos varias horas de metraje y no pueden manejar ciertos casos extremos, como los perfiles faciales. Los investigadores eligieron a Obama como su primer estudio de caso porque sus discursos semanales brindan una gran cantidad de imágenes de alta definición disponibles públicamente de él mirando directamente a la cámara y adoptando un tono de voz constante. Sintetizar videos de otras figuras públicas que no cumplan con esas condiciones sería más desafiante y requeriría un mayor avance tecnológico. Esto gana tiempo para que las tecnologías que detectan videos falsos se desarrollen en paralelo. Como informó The Economist a principios de este mes, una solución podría ser “exigir que las grabaciones vengan con sus metadatos, que muestran cuándo, dónde y cómo fueron capturadas. Saber tales cosas hace posible eliminar una fotografía como falsa sobre la base, por ejemplo, de una falta de coincidencia con las condiciones locales conocidas en ese momento”.

Pero a medida que las puertas para nuevas formas de medios falsos continúan abriéndose, en última instancia, los consumidores tendrán que andar con cuidado.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd