Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 678

Incidentes Asociados

Incidente 3929 Reportes
Deepfake Obama Introduction of Deepfakes

Loading...
El futuro de las fake news: no creas todo lo que lees, ves o escuchas
theguardian.com · 2017

Una nueva generación de herramientas de manipulación de video y audio permite la creación de imágenes de noticias de aspecto realista, como el ahora infame discurso falso de Obama.

En una era de Photoshop, filtros y redes sociales, muchos de nosotros estamos acostumbrados a ver imágenes manipuladas: los sujetos se vuelven más delgados y suaves o, en el caso de Snapchat, se transforman en cachorros.

Sin embargo, existe una nueva generación de herramientas de manipulación de video y audio, posible gracias a los avances en inteligencia artificial y gráficos por computadora, que permitirán la creación de imágenes realistas de figuras públicas que parecen decir, bueno, cualquier cosa. Trump declarando su propensión a los deportes acuáticos. Hillary Clinton describiendo a los niños robados que mantiene encerrados en su bodega. Tom Cruise finalmente admitió lo que sospechábamos todo el tiempo... que es un Brony.

Este es el futuro de las noticias falsas. Durante mucho tiempo nos han dicho que no creamos todo lo que leemos, pero pronto tendremos que cuestionar todo lo que vemos y escuchamos también.

Por ahora, hay varios equipos de investigación trabajando en capturar y sintetizar diferentes elementos visuales y de audio del comportamiento humano.

El software desarrollado en la Universidad de Stanford es capaz de manipular secuencias de video de figuras públicas para permitir que una segunda persona ponga palabras en su boca, en tiempo real. Face2Face captura las expresiones faciales de la segunda persona mientras habla a una cámara web y luego transforma esos movimientos directamente en la cara de la persona en el video original. El equipo de investigación demostró su tecnología con videos de títeres de George W. Bush, Vladimir Putin y Donald Trump.

Facebook Twitter Pinterest Face2Face te permite titiritear a celebridades y políticos, literalmente poniendo palabras en sus bocas.

Por sí solo, Face2Face es un juguete divertido para crear memes y entretener a los presentadores de programas de entrevistas nocturnos. Sin embargo, con la adición de una voz sintetizada, se vuelve más convincente: la marioneta digital no solo se parece al político, sino que también puede sonar como el político.

Un equipo de investigación de la Universidad de Alabama en Birmingham ha estado trabajando en la suplantación de voz. Con 3-5 minutos de audio de la voz de una víctima, tomados en vivo o de videos de YouTube o programas de radio, un atacante puede crear una voz sintetizada que puede engañar tanto a los humanos como a los sistemas de seguridad biométricos de voz utilizados por algunos bancos y teléfonos inteligentes. Luego, el atacante puede hablar por un micrófono y el software lo convertirá para que las palabras suenen como si las pronunciara la víctima, ya sea por teléfono o en un programa de radio.

La startup canadiense Lyrebird ha desarrollado capacidades similares, que dice que pueden usarse para convertir texto en audiolibros en el acto "leídos" por voces famosas o para personajes de videojuegos.

Aunque sus intenciones pueden ser bien intencionadas, la tecnología de transformación de voz podría combinarse con la tecnología de transformación de rostros para crear declaraciones falsas convincentes de figuras públicas.

Solo tiene que mirar el proyecto Synthesizing Obama de la Universidad de Washington, donde tomaron el audio de uno de los discursos de Obama y lo usaron para animar su rostro en un video completamente diferente con una precisión increíble (gracias al entrenamiento de una red neuronal recurrente con horas de metraje), para tener una idea de cuán insidiosas pueden ser estas adulteraciones.

Más allá de las noticias falsas, hay muchas otras implicaciones, dijo Nitesh Saxena, profesor asociado y director de investigación del departamento de informática de la Universidad de Alabama en Birmingham. “Podrías dejar mensajes de voz falsos haciéndote pasar por la madre de alguien. O difamar a alguien y publicar las muestras de audio en línea”.

Estas tecnologías de transformación aún no son perfectas. Las expresiones faciales en los videos pueden parecer un poco distorsionadas o poco naturales y las voces pueden sonar un poco robóticas.

Pero con el tiempo, podrán recrear fielmente el sonido o la apariencia de una persona, hasta el punto en que puede ser muy difícil para los humanos detectar el fraude.

Dada la erosión de la confianza en los medios y la propagación desenfrenada de engaños a través de las redes sociales, será aún más importante para las organizaciones de noticias examinar el contenido que se ve y suena como el verdadero negocio.

Los signos reveladores serán dónde se creó el video o el audio, quién más estuvo en el evento y si las condiciones climáticas coinciden con los registros de ese día.

Las personas también deberían observar la iluminación y las sombras en el video, si todos los elementos que aparecen en el cuadro tienen el tamaño correcto y si el audio está sincronizado perfectamente, dijo Mandy Jenkins, de la compañía de noticias sociales Storyful, que se especializa en verificar contenido de noticias

Es posible que el contenido manipulado no pase el escrutinio de una sala de redacción rigurosa, pero si se publica como un video granulado en las redes sociales, podría propagarse viralmente y desencadenar un desastre diplomático, político o de relaciones públicas. Imagine a Trump declarando la guerra a Corea del Norte, por ejemplo.

“Si alguien se parece a Trump y habla como Trump, pensará que es Trump”, dijo Saxena.

“Ya vemos que ni siquiera se necesita audio o video manipulado para hacer que la gente crea algo que yo

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd