Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2435

Incidentes Asociados

Incidente 2012 Reportes
Climate Action Group Posted Deepfake of Belgian Prime Minister Urging Climate Crisis Action

Loading...
Deepfake democracia: así es como las elecciones modernas podrían decidirse por noticias falsas
weforum.org · 2020
  • La amenaza emergente de deepfakes podría tener un impacto sin precedentes en este ciclo electoral, planteando serias dudas sobre la integridad de las elecciones democráticas, la formulación de políticas y nuestra sociedad en general.
  • Se requiere una nueva agenda ética para la IA en la publicidad política y el contenido de las plataformas en línea. Dada la naturaleza transfronteriza del problema, la agenda debe estar respaldada por un consenso y una acción globales.
  • Las comunidades y los individuos también pueden tomar medidas directamente al establecer estándares más altos sobre cómo crear e interactuar con contenido político en línea.

En unos meses Estados Unidos elegirá a su 46º presidente. Si bien a algunos les preocupa si la campaña y la emisión de votos se pueden realizar de manera segura durante la pandemia de COVID-19, otra pregunta es igual de crítica: ¿cuántos votos resultarán a través de la influencia manipuladora de la inteligencia artificial?

Específicamente, la amenaza emergente de deepfakes podría tener un impacto sin precedentes en este ciclo electoral, planteando serias dudas sobre la integridad de las elecciones, la formulación de políticas y nuestra sociedad democrática en general.

Comprender las falsificaciones profundas

Las falsificaciones profundas impulsadas por IA tienen el potencial de traer consecuencias preocupantes para las elecciones estadounidenses de 2020.

La tecnología que comenzó como poco más que un truco que provocaba risas para hacer videos de mezclas caseras se ha potenciado recientemente con los avances en IA.

Hoy en día, el software de código abierto como DeepFaceLab y Faceswap permite que prácticamente cualquier persona con [tiempo y acceso a la informática en la nube](https ://arstechnica.com/science/2019/12/how-i-created-a-deepfake-of-mark-zuckerberg-and-star-treks-data/) para implementar procesos sofisticados de aprendizaje automático y renderizado gráfico sin previo desarrollo.

Lo que es más preocupante, la tecnología en sí está mejorando a un ritmo tan rápido que los expertos predicen que las falsificaciones profundas podrían pronto ser indistinguibles de videos reales. . Los asombrosos resultados que la IA puede generar hoy en día se pueden atribuir a saltos hercúleos en un subcampo llamado Generative Adversarial Networks. Esta tecnología permite que las redes neuronales den el salto de la mera percepción a la creación.

Como es de esperar con la tecnología viral, la cantidad de videos falsos está creciendo exponencialmente a medida que la continua democratización de la IA y la computación en la nube hacen que los procesos subyacentes cada vez más accesible.

¿Una nueva infodemia?

Como hemos visto durante la pandemia de COVID-19, la difusión contagiosa de información errónea rara vez requiere más que una apariencia de autoridad que acompañe al mensaje, sin importar cuán pernicioso u objetivamente inseguro pueda ser el contenido para la audiencia.

Dada la facilidad con la que los deepfakes pueden combinar narrativas e información falsas con fuentes de autoridad fabricadas, tienen un potencial sin precedentes para engañar, desinformar y manipular, dando a 'no vas a creer lo que ves' un significado completamente nuevo.

De hecho, según un [ informe] reciente (https://www.brookings.edu/research/is-seeing-still-believing-the-deepfake-challenge-to-truth-in-politics/#cancel) publicado por Según el Instituto Brookings, las falsificaciones profundas están en camino no solo de distorsionar el discurso democrático, sino también de erosionar la confianza en las instituciones públicas en general.

¿Cómo pueden los deepfakes convertirse en armas electorales?

¿Cómo exactamente se podrían armar los deepfakes en una elección? Para empezar, los actores maliciosos podrían falsificar evidencia para alimentar acusaciones falsas y narrativas falsas. Por ejemplo, al introducir cambios sutiles en how un candidato pronuncia un discurso auténtico, podría usarse para cuestionar el carácter, el estado físico y la salud mental sin que la mayoría de los espectadores lo sepan mejor.

Deepfakes también podría usarse para crear contenido ficticio completamente nuevo, incluidas declaraciones controvertidas u odiosas con la intención de jugar con las divisiones políticas o incluso incitar a la violencia.

Quizás no sea sorprendente que los deepfakes ya se hayan aprovechado en otros países para desestabilizar gobiernos y procesos políticos.

  • En Gabón, los militares lanzaron un golpe de estado fallido después de la publicación de un video aparentemente falso del líder Ali. Bongo sugirió que el presidente ya no estaba lo suficientemente saludable para ocupar el cargo.
  • En Malasia, un video pretender mostrar al Ministro de Asuntos Económicos teniendo relaciones sexuales ha generado un debate considerable sobre si el video era falso o no, lo que causó daños a la reputación del Ministro.
  • En Bélgica, un grupo político publicó un deepfake del primer ministro belga dando una discurso que vinculó el brote de COVID-19 con el daño ambiental y pidió una acción drástica sobre el cambio climático.

La verdad puede ganar

A día de hoy, lamentablemente estamos mal equipados para hacer frente a las falsificaciones profundas.

Según el Pew Research Center, casi dos tercios de la población de EE. UU. dice que el contenido falso [crea mucha confusión] (https://www.pewresearch.org/fact-tank/2019/06/14/about- las tres cuartas partes de los estadounidenses favorecen las medidas para restringir los videos e imágenes alterados/) sobre la realidad política. Lo que es peor, incluso nuestros mejores esfuerzos para corregir y verificar el contenido falso en última instancia podrían servir solo para [fortalecer la difusión de la narrativa falsa] (https://www.inverse.com/innovation/how-deepfakes-could-swing- la elección).

Para que la IA y la democracia coexistan, debemos asegurar urgentemente una comprensión común de lo que es verdad y crear un entorno compartido para los hechos del que puedan surgir con seguridad nuestras opiniones divergentes.

Lo que se necesita más desesperadamente es una nueva agenda ética para la IA en la publicidad política y el contenido de las plataformas en línea. Dada la naturaleza transfronteriza del problema, la agenda debe estar respaldada por un consenso y una acción globales.

Iniciativas como el [Uso responsable de la tecnología] del Foro Económico Mundial (https://www.weforum.org/projects/responsible-use-of-technology), que reúne a los ejecutivos de tecnología para discutir el uso ético de sus plataformas, son un comienzo fuerte

A nivel más local, las legislaturas han comenzado a seguir la iniciativa de California de [prohibir las falsificaciones profundas durante las elecciones](https://www.theguardian.com/us-news/2019/oct/07/california-makes-deepfake-videos-illegal -pero-la-ley-puede-ser-difícil-de-hacer cumplir) e incluso Facebook se ha unido a la lucha con [su propia prohibición de ciertas formas de contenido manipulado ](https://about.fb.com/news/2020/01 /reforzar-contra-los-medios-manipulados/) y un desafío para crear tecnologías para detectarlos.

El futuro: ¿realidad o ficción?

Aún así, se puede hacer más.

No necesariamente necesitamos un cambio tecnológico o de paradigma regulatorio para desarmar los deepfakes. En cambio, las comunidades y las personas también pueden tomar medidas directamente al establecer estándares más altos sobre cómo creamos e interactuamos con contenido político en línea nosotros mismos.

De hecho, a menos que los propios votantes defiendan los hechos y la verdad en el discurso en línea, será casi imposible impulsar un cambio significativo, simplemente debido a la subjetividad inherente de las plataformas en línea que pone a la realidad en desventaja.

Lo queramos o no, los deepfakes llegaron para quedarse. Pero noviembre de 2020 podría marcar el momento en que tomemos una posición colectiva contra las amenazas que plantea la IA antes de que sea demasiado tarde.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd