Incidentes Asociados

rami niemi
“El presidente Trump es un idiota completo y total”. Así lo anunció Barack Obama, en un video difundido en YouTube a principios de este año. Atípico, ciertamente, pero parecía muy real. Sin embargo, era un video falsificado hecho por BuzzFeed y el actor y director Jordan Peele con la ayuda de inteligencia artificial. Una buena manera de llamar la atención sobre un problema que madura rápidamente.
Deepfakes, como se les ha denominado, son la manifestación más reciente, y quizás la más preocupante, en la carrera armamentista en evolución de la desinformación digital. Las imágenes se han manipulado durante mucho tiempo y los métodos para jugar con el audio también están mejorando. Hasta hace poco, manipular y falsificar videos ha sido laborioso, requiere habilidades expertas y mucha paciencia. Sin embargo, el aprendizaje automático facilita y acelera cada vez más el proceso.
A fines del año pasado, una nueva generación de videos pornográficos comenzó a aparecer en Reddit, cortesía de un usuario llamado deepfakes. Usando el aprendizaje automático, los deepfakes habían descubierto cómo intercambiar las caras de las estrellas porno con las de las celebridades. Los videos causaron un poco de revuelo. El algoritmo DeepFake se lanzó posteriormente en GitHub, brindando a cualquier persona con suficiente conocimiento y una computadora lo suficientemente decente los medios para hacer falsificaciones bastante decentes.
Read next La prueba reCAPTCHA de Google ha sido engañada por inteligencia artificial La prueba reCAPTCHA de Google ha sido engañada por inteligencia artificial
Desde entonces, videos falsificados similares y software relacionado han estado apareciendo en Internet. Algunos son relativamente inofensivos. Una herramienta, inspirada en el algoritmo original de deepfakes, se ha utilizado principalmente para insertar la cara de Nicolas Cage en películas en las que no apareció. Pero claramente existe un potencial maligno. Es fácilmente concebible que un video bien falsificado pueda aumentar las tensiones geopolíticas, provocar disturbios o intensificar el crimen. La confianza podría erosionarse rápidamente en las instituciones, los medios e incluso los sistemas políticos. Una preocupación viable es que la evolución tecnológica supera el desarrollo de políticas gubernamentales apropiadas.
Afortunadamente, la comunidad científica está en el caso. Un equipo, dirigido por Siwei Lyu en la Universidad de Albany, Nueva York, encontró una falla en la falsificación. El algoritmo DeepFake crea videos a partir de las imágenes que recibe. Si bien es adecuadamente precisa, la IA no logra reproducir a la perfección todas las señales fisiológicas que los humanos emiten naturalmente. Lyu y su equipo se concentraron en uno en particular: parpadear. Los humanos típicamente parpadean espontáneamente una vez cada dos o tres segundos. Pero como las fotos de personas no suelen tener los ojos cerrados, entrenar el algoritmo en ellas hará que las personas en los videos rara vez parpadeen.
Así que Lyu y su equipo diseñaron un algoritmo de inteligencia artificial para detectar dónde faltaba el parpadeo en los videos falsos. Su algoritmo, una combinación de dos redes neuronales, primero detecta rostros, luego alinea todas las imágenes continuas en el video, antes de analizar las regiones de los ojos en cada una. Una parte de la red decide si la cara tiene los ojos cerrados o no. El otro sirve como un sistema de memoria, recordando la decisión de cuadro a cuadro, para determinar si se ha producido un parpadeo con el tiempo.
Primero, entrenaron a la IA en un conjunto de datos etiquetados de imágenes con los ojos abiertos y cerrados. Para probarlo, generaron su propio conjunto de videos DeepFake e incluso realizaron un pequeño procesamiento posterior para suavizar aún más las falsificaciones.
Los resultados fueron impresionantes. Según Lyu, su IA identificó todos los videos falsos.
Leer a continuación Las empresas emergentes están explotando la definición confusa de la IA para sacar provecho de la publicidad Las empresas emergentes están explotando la definición confusa de la IA para sacar provecho de la publicidad
No es un gran desafío agregar el parpadeo manualmente con el procesamiento posterior, explica Lyu, y algunos videos falsos, incluida la falsificación de BuzzFeed, de hecho contienen parpadeo. Sin embargo, este tipo de estrategia servirá para frustrar y retrasar el proceso de creación de videos falsos, al menos con este algoritmo. “Estamos formando la primera línea de defensa”, dice Lyu. “A la larga, es realmente una batalla continua entre las personas que hacen videos falsos y las personas que los detectan”.
Este estudio encaja en un esfuerzo más amplio. La investigación fue patrocinada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), como parte de su programa Media Forensics, un proyecto que se llevó a cabo desde 2016 hasta 2020. Su objetivo es desarrollar un conjunto de herramientas para verificar la autenticidad y veracidad de los datos producidos digitalmente. información, como audio y video.
“Queremos brindarle al público la seguridad de que existe tecnología que puede combatir esta ola de medios falsos y noticias falsas”, dice Lyu.
Para Lev Manovitch, profesor de ciencias de la computación en la Universidad de Nueva York, este también es un ejemplo de una tendencia creciente de competencia entre IA. “Sabemos bien que el análisis de datos computacionales a menudo puede detectar patrones que pueden ser invisibles para un humano”, explica, “pero ¿qué pasa con la detección de patrones dejados por otra IA? ¿Veremos en el futuro la 'guerra' cultural entre IA,