Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 689

Incidentes Asociados

Incidente 3929 Reportes
Deepfake Obama Introduction of Deepfakes

Loading...
La sincronización de labios impulsada por IA crea al maestro de marionetas de Obama iniciando una nueva era en videos de noticias falsas
hothardware.com · 2017

Muchos de nosotros hemos tenido que prestar atención a la advertencia de "No pongas palabras en mi boca" en algún momento de nuestras vidas, pero en general, nadie lo dice en un sentido literal. Sin embargo, con el tiempo, gracias al aprendizaje profundo y la inteligencia artificial, poner palabras en la boca de alguien podría convertirse en una realidad legítima.

Como complemento de la próxima conferencia SIGGRAPH en Los Ángeles, los investigadores de la Universidad de Washington han trabajado su magia para poner palabras en boca del ex presidente Barack Obama. Al menos en este caso, las palabras dichas en realidad salieron de la boca de Obama, pero las imágenes que se ven no son del mismo momento en que las dijo. ¿Crees que esto suena extraño? Absolutamente lo es. Échale un vistazo:

Para hacerse pasar por alguien así, se requiere una gran cantidad de imágenes de origen, ya que una red neuronal recopilará la mayor cantidad de datos posible para comprender mejor exactamente cómo se mueve la cara de alguien cuando dice ciertas palabras. Eso incluye cómo reaccionan sus arrugas, cómo se estira su piel, etc. Todo junto, y con las herramientas adecuadas, el resultado es casi aterrador.

Una de las razones por las que el resultado anterior es tan bueno como es, es simplemente por el hecho de que existen cientos de horas de video de Obama hablando a la cámara. La mayoría de las personas, incluso las celebridades, no tendrán tantos videos perfectos como este disponibles, pero a medida que pasa el tiempo, el requisito de una gran cantidad de videos solo disminuirá, ya que la IA se vuelve más precisa.

"Noticias falsas" es un término que ha estado flotando cada vez más en los últimos meses, y este es un ejemplo perfecto de lo que depara el futuro. Todos hemos visto esos artículos de clickbait que afirman que una celebridad dijo algo que claramente no dijo. Ahora imagine que esta tecnología se implementa y da como resultado un video en el que la persona parece decir lo que se afirma, incluso si en realidad no lo dijo.

Esto es tan alucinante. Este es el tipo de tecnología sobre la que la gente solía bromear, pero ahora se está convirtiendo en realidad. Estamos viviendo unos tiempos locos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd