Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 695

Incidentes Asociados

Incidente 3929 Reportes
Deepfake Obama Introduction of Deepfakes

Loading...
Cómo las 'falsificaciones profundas' se volvieron fáciles y por qué dan tanto miedo
fortune.com · 2018

Un video de un minuto de duración de Barack Obama ha sido visto más de 4,8 millones de veces desde abril. Muestra al expresidente estadounidense sentado, con la bandera estadounidense de fondo, hablando directamente al espectador y utilizando una obscenidad para referirse a su sucesor, Donald Trump. O más bien, sus labios se mueven cuando se pronuncian las palabras. El video es en realidad una falsificación profunda hecha por el actor y director Jordan Peele, quien se hizo pasar por la voz de Obama. Peele creó el video para ilustrar los peligros del contenido de audio y video fabricado que muestra a personas diciendo o haciendo cosas que en realidad nunca dijeron o hicieron. Investigadores de la Universidad de Nueva York describen las falsificaciones profundas como una "amenaza en el horizonte".

  1. ¿Qué constituye una falsificación profunda?

Si bien la manipulación de archivos digitales no es nada nuevo, este tipo de falsificación creíble se logra mediante programas de computadora que emplean una forma de inteligencia artificial. Se entrena un algoritmo para reconocer patrones en grabaciones de audio o visuales reales de una persona en particular, un proceso conocido como aprendizaje profundo. Al igual que con las imágenes manipuladas, una parte del contenido se puede modificar intercambiando un nuevo elemento, como la cara o la voz de otra persona, y uniéndolos a la perfección. Las manipulaciones son más engañosas cuando se combinan con la tecnología de clonación de voz, que divide una grabación de audio en fragmentos de media sílaba que se pueden volver a ensamblar en nuevas palabras, el mismo método que se usa para crear asistentes de voz como Siri de Apple y Alexa de Amazon.

  1. ¿Por qué algunas falsificaciones son más creíbles que otras?

Cuanto más grande sea la biblioteca de contenido con la que se alimenta un algoritmo de aprendizaje profundo, más realista puede ser la falsificación. El deep fake de Obama requirió 56 horas de grabaciones de muestra. Apple grabó de 10 a 20 horas de voz para crear Siri. Según una serie de informes, se pueden hacer clones de voz a partir de poco más de unos pocos segundos de material.

  1. ¿Cómo se difundió esta tecnología?

Motherboard, una publicación de Vice, informó en diciembre que un usuario de Reddit llamado “deepfakes” había puesto a disposición del público un algoritmo para hacer videos falsos usando código de fuente abierta. Anteriormente, la tecnología era dominio de académicos e investigadores, pero ahora cualquiera puede usarla. Despegó como un medio para crear pornografía falsa, generalmente con las caras de celebridades femeninas mapeadas en los cuerpos de las estrellas porno para representar actos sexuales que nunca tuvieron lugar. Reddit prohibió al usuario "deepfakes", pero la tecnología se extendió y ahora está disponible en aplicaciones como FakeApp.

  1. Aparte de los pornógrafos, ¿quién está haciendo falsificaciones?

En lo que se ha llamado una carrera armamentista tecnológica, las universidades y las empresas de investigación están desarrollando la tecnología para probar el poder de las falsificaciones profundas y vencer a los practicantes infames. Investigadores de la Universidad Carnegie Mellon crearon recientemente un sistema que puede transferir características, como expresiones faciales, de un video de una persona a una imagen sintetizada de otra. Baidu de China y un puñado de nuevas empresas, incluidas Lyrebird e iSpeech, han estado vendiendo clonación de voz para uso comercial en interfaces hombre-máquina.

  1. ¿Por qué la gente está preocupada?

El temor es que las falsificaciones profundas puedan destruir indebidamente reputaciones e incluso provocar disturbios. Imagine videos falsificados que muestran a un candidato presidencial abusando de niños, un jefe de policía incitando a la violencia contra un grupo minoritario o soldados cometiendo crímenes de guerra. Las personas de alto perfil, como políticos y líderes empresariales, corren un riesgo especial, dada la cantidad de grabaciones de ellos que son de dominio público. Para la gente común, especialmente las mujeres, la tecnología hace que la pornografía de venganza sea una posibilidad, incluso si no existen fotos o videos de desnudos reales. Una vez que un video se vuelve viral en Internet, es casi imposible contenerlo. Una preocupación adicional es que la difusión de la conciencia sobre las falsificaciones profundas hará que sea más fácil para las personas que realmente están grabadas haciendo o diciendo cosas objetables para afirmar que la evidencia en su contra es falsa.

  1. ¿Se pueden detectar las falsificaciones?

El tipo de aprendizaje automático que produce falsificaciones profundas no se puede revertir fácilmente para detectarlas. Los investigadores han identificado pistas que podrían indicar que un video no es auténtico, si el orador no ha parpadeado durante un tiempo o parece un poco espasmódico, por ejemplo, pero esos detalles fácilmente podrían pasar desapercibidos para el espectador. Al mejorar la saturación de color en un video de una persona, es posible detectar su pulso a partir del cambio casi invisible en la piel del rostro; una imagen hecha a partir de una mezcla de clips tendría un flujo de sangre irregular o inexistente. El Departamento de Defensa de EE. UU. está desarrollando herramientas para contrarrestar las falsificaciones profundas.

  1. ¿Existen usos benéficos?

Sí. La firma escocesa CereProc crea voces digitales para personas que pierden la suya por enfermedad, y la clonación vocal podría tener un propósito educativo al recrear el sonido de figuras históricas. Un proyecto de la Universidad Estatal de Carolina del Norte sintetizó uno de los discursos no grabados de Martin Luther King Jr. CereProc creó una versión del último discurso escrito por el presidente John F. Kennedy, quien fue asesinado antes de d

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd