Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 683

Incidentes Asociados

Incidente 3929 Reportes
Deepfake Obama Introduction of Deepfakes

Loading...
La nueva tecnología de IA llama la atención en la manipulación de video
singularityhub.com · 2018

Una nueva técnica que usa inteligencia artificial para manipular contenido de video le da un nuevo significado a la expresión "cabeza parlante".

Un equipo internacional de investigadores mostró el último avance en la síntesis de expresiones faciales, incluidos la boca, los ojos, las cejas e incluso la posición de la cabeza, en video en SIGGRAPH 2018 de este mes, una conferencia sobre innovaciones en gráficos por computadora, animación, realidad virtual y otras formas. de hechicería digital.

El proyecto se llama Deep Video Portraits. Se basa en un tipo de IA llamada redes adversarias generativas (GAN) para modificar un actor "objetivo" en función del movimiento facial y de la cabeza de un actor "fuente". Como su nombre lo indica, las GAN enfrentan dos redes neuronales opuestas entre sí para crear una cabeza parlante realista, hasta la mueca o la ceja levantada.

En este caso, los adversarios en realidad están trabajando juntos: una red neuronal genera contenido, mientras que la otra rechaza o aprueba cada esfuerzo. La interacción de ida y vuelta entre los dos finalmente produce un resultado realista que puede engañar fácilmente al ojo humano, incluida la reproducción de una escena estática detrás de la cabeza mientras se balancea hacia adelante y hacia atrás.

Los investigadores dicen que la industria cinematográfica puede utilizar la técnica para una variedad de propósitos, desde editar las expresiones faciales de los actores para hacer coincidir las voces dobladas hasta reposicionar la cabeza de un actor en la posproducción. La IA no solo puede producir resultados muy realistas, sino mucho más rápidos en comparación con los procesos manuales que se utilizan hoy en día, según los investigadores. Puede leer el documento completo de su trabajo aquí.

“Deep Video Portraits muestra cómo se podría crear un efecto visual de este tipo con menos esfuerzo en el futuro”, dijo Christian Richardt, del centro de investigación de captura de movimiento CAMERA de la Universidad de Bath, en un comunicado de prensa. “Con nuestro enfoque, incluso la posición de la cabeza de un actor y su expresión facial podrían editarse fácilmente para cambiar los ángulos de la cámara o cambiar sutilmente el encuadre de una escena para contar mejor la historia”.

AI Tech diferente a los llamados "Deepfakes"

El trabajo está lejos de ser el primero en emplear IA para manipular video y audio. En la conferencia SIGGRAPH del año pasado, investigadores de la Universidad de Washington exhibieron su trabajo usando algoritmos que insertaron grabaciones de audio de una persona en un caso en un video separado de la misma persona en un contexto diferente.

En este caso, "falsificaron" un video utilizando un discurso del expresidente Barack Obama sobre un tiroteo masivo durante su presidencia. El video manipulado por IA inyecta el audio en un video no relacionado del presidente al mismo tiempo que combina los movimientos faciales y de la boca, creando un trabajo bastante creíble de sincronización de labios.

Un artículo anterior de muchos de los mismos científicos en el proyecto Deep Video Portraits detalló cómo pudieron manipular por primera vez un video en tiempo real de una cabeza parlante (en este caso, el actor y exgobernador de California Arnold Schwarzenegger). El sistema Face2Face logró este truco digital utilizando una cámara de detección de profundidad que rastreaba las expresiones faciales de una actriz fuente asiática.

A principios de este año surgió un método menos sofisticado para intercambiar rostros utilizando un software de aprendizaje automático llamado FakeApp. Como era de esperar, la tecnología, que requería numerosas fotos del actor fuente para entrenar la red neuronal, se usó para actividades más juveniles, como inyectar la cara de una persona en una estrella porno.

La aplicación dio lugar al término "deepfakes", que ahora se usa de manera un tanto omnipresente para describir todas las instancias de video manipulado por IA, para disgusto de algunos de los investigadores involucrados en usos más legítimos.

Lucha contra las falsificaciones de video creadas por IA

Sin embargo, los investigadores son muy conscientes de que su trabajo, destinado a usos benignos como en la industria del cine o incluso para corregir la mirada y las posiciones de la cabeza para interacciones más naturales a través de videoconferencias, podría usarse con fines nefastos. Las noticias falsas son la preocupación más obvia.

“Con la tecnología de edición de video en constante mejora, también debemos comenzar a ser más críticos con el contenido de video que consumimos todos los días, especialmente si no hay prueba de origen”, dijo Michael Zollhöfer, profesor asistente visitante en la Universidad de Stanford y miembro de la El equipo de Deep Video Portraits, en el comunicado de prensa.

Con ese fin, el equipo de investigación está entrenando las mismas redes neuronales antagónicas para detectar falsificaciones de videos. También recomiendan encarecidamente que los desarrolladores marquen claramente los videos que se editan a través de IA o de otra manera, y que indiquen claramente qué parte y elemento de la escena se modificó.

Para atrapar a los usuarios menos éticos, el Departamento de Defensa de EE. UU., a través de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), está apoyando un programa llamado Media Forensics. Este último desafío de DARPA recluta investigadores para desarrollar tecnologías para evaluar automáticamente la integridad de una imagen o video, como parte de una plataforma de análisis forense de medios de extremo a extremo.

El funcionario de DARPA a cargo del programa, Matthew Turek, le dijo a MIT Technology Revie

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd