Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2879

Incidentes Asociados

Incidente 49911 Reportes
Parody AI Images of Donald Trump Being Arrested Reposted as Misinformation

Loading...
Las imágenes falsas del arresto de Trump muestran un "paso de gigante" para el poder disruptivo de la IA
washingtonpost.com · 2023

Eliot Higgins, el fundador del medio de investigación de fuente abierta Bellingcat, estaba leyendo esta semana sobre la [acusación esperada de Donald Trump] (https://www.washingtonpost.com/national-security/2023/03/22/trump- grand-jury-new-york/?itid=lk_inline_manual_2) cuando decidió que quería visualizarlo.

Recurrió a un generador de arte de IA y le dio a la tecnología indicaciones simples, como "Donald Trump se cae mientras lo arrestan". Compartió los resultados —imágenes del expresidente rodeado de oficiales, sus insignias borrosas e indistintas— en Twitter. "Haciendo fotos de Trump siendo arrestado mientras esperaba el arresto de Trump", escribió.

"Estaba bromeando", dijo Higgins en una entrevista. "Pensé que tal vez cinco personas lo retuitearían".

Dos días después, sus publicaciones que describen un evento que nunca sucedió se han visto casi 5 millones de veces, creando un caso de estudio en la [sofisticación creciente] (https://www.washingtonpost.com/technology/2023/02/21/ai -polls-skeptics/?itid=lk_inline_manual_6) de imágenes generadas por IA, la facilidad con la que se pueden implementar y su potencial para crear confusión en entornos de noticias volátiles. El episodio también pone en evidencia la ausencia de estándares corporativos o regulaciones gubernamentales que aborden el uso de la IA para crear y difundir falsedades.

“Los legisladores han estado advirtiendo durante años sobre el posible uso indebido de los medios sintéticos para difundir desinformación y, en general, para sembrar confusión y discordia”, dijo el senador Mark R. Warner (D-Va.), presidente del Comité de Inteligencia del Senado. "Si bien tomó algunos años para que las capacidades se pusieran al día, ahora estamos en un punto en el que estas herramientas están ampliamente disponibles y son increíblemente capaces".

Warner dijo que los desarrolladores "ya deberían estar informados: si su producto permite directamente daños que son razonablemente previsibles, puede ser potencialmente responsable". Pero dijo que los formuladores de políticas también tienen trabajo por hacer y exigen nuevas obligaciones para garantizar que las empresas aborden los peligros de la inteligencia artificial.

Las principales plataformas en línea donde se difunden este tipo de imágenes tienen políticas inconsistentes al respecto. Twitter no respondió con comentarios a una consulta del Washington Post sobre las imágenes. Una portavoz de Meta señaló ejemplos de las imágenes, que rápidamente saltaron de Twitter a otras plataformas, siendo verificadas en sus servicios, incluida la aplicación para compartir fotos Instagram. YouTube y TikTok no respondieron de inmediato a las solicitudes de comentarios.

"Contexto perdido. Los verificadores de hechos independientes dicen que la información en esta publicación podría inducir a error a las personas", se lee en el texto rojo debajo de una de las imágenes en una publicación compartida por una cuenta con más de 3,000 seguidores.

En Facebook, sin embargo, una de las imágenes quedó intacta cuando la compartió un usuario con el triple de seguidores. “En un giro de los acontecimientos sin precedentes, el expresidente Donald Trump fue arrestado y escoltado a una prisión federal”, escribió el usuario, que se describe a sí mismo como bloguero y exsoldado de infantería estadounidense. "La impactante imagen de Trump, con los oficiales tomándole ambas manos, circuló rápidamente en las redes sociales".

Hubo una penalización para Higgins, pero Midjourney, el generador de arte que había usado para crear las imágenes, la impuso. Y llegó sin explicación. Dijo que no pudo acceder al servidor de Midjourney el miércoles, pero no recibió ninguna comunicación de la empresa sobre las reglas que había violado.

Midjourney, que se describe a sí mismo como un "laboratorio de investigación independiente que explora nuevos medios de pensamiento y expande los poderes imaginativos de la especie humana", no respondió a una solicitud de comentarios.

"Pensé, 'Vaya, parece que ha habido una consecuencia por mis acciones'", dijo Higgins.

Trump escribió durante el fin de semana en Truth Social, su sitio de redes sociales, que esperaba ser arrestado el martes, preparando a sus seguidores para imágenes de su detención.

“Es la primera garantía visual de que Trump es arrestado, incluso si no lo es”, dijo Angelo Carusone, presidente de Media Matters for America, el grupo de vigilancia de tendencia izquierdista. "Esta va a ser la imagen que mucha gente tendrá en mente, incluso si Trump no termina siendo acusado, y mucho menos arrestado".

Cuando Higgins comenzó a hacer circular las imágenes de Trump, dejó en claro que eran falsas. Pero la cascada de imágenes que pudo sembrar en Internet muestra que "ha habido un gran paso adelante en la capacidad de crear imágenes falsas pero creíbles en volumen", dijo Sam Gregory, director ejecutivo de la organización de derechos humanos Witness. "Y es fácil ver cómo se podría hacer esto de manera coordinada con la intención de engañar".

Los defectos de la tecnología que plantean dudas sobre la autenticidad de las imágenes (manos de seis dedos o piel metálica) no socavan su potencial disruptivo, dijo Gregory, cuyo grupo convocó a expertos el otoño pasado de la industria de la tecnología, el derecho, el arte y el entretenimiento. para identificar formas de "apoyar el poder naciente de los medios sintéticos para la defensa, la parodia y la sátira, mientras se enfrenta a las áreas grises del engaño, la manipulación y la desinformación". Entre las acciones potenciales identificaron la divulgación y el etiquetado de cómo se fabrican los medios.

"El objetivo", dijo Gregory, "quizás no sea convencer a la gente de que ocurrió cierto evento, sino convencer a la gente de que no pueden confiar en nada y socavar la confianza en todas las imágenes".

La tecnología avanza rápido. Higgins dijo que usó la versión 5 del generador de arte de Midjourney para crear las imágenes de Trump. La última versión, por la que paga 30 dólares al mes, es mucho más sofisticada que su predecesora inmediata, dijo, mejorando enormemente un conjunto de imágenes que creó de presidentes estadounidenses como papas. "La herramienta parece estar aprendiendo más sobre la coherencia de la imagen", dijo.

La tecnología parece basarse iterativamente en su conocimiento de ciertas imágenes, dijo Higgins. "Estoy bastante seguro de que se trata de la cantidad de personas en las que se ha entrenado con un nombre de pila", explicó. "Para las celebridades, cuanto menos famosas son a nivel internacional, menos precisas son las imágenes".

Una vez que sus imágenes del arresto ficticio de Trump comenzaron a despegar, decidió completar el arco de la historia, agregando imágenes de un juicio y una fuga final de la prisión. Ciertas señales hicieron tropezar a la tecnología. "Hice uno de Donald Trump tallando una llave con jabón, pero generó un Donald Trump naranja con jabón, lo cual es interesante pero no era lo que buscaba", dijo Higgins.

Los temas complejos también presentan problemas para la tecnología, dijo. Dados los temores de que los teóricos de la conspiración puedan utilizar tales herramientas, Higgins ha tratado de simular sus esfuerzos. Pero sus intentos en su mayoría han fracasado. Sus instrucciones de crear una imagen de dos osgos de la derecha política riéndose juntos —Anthony S. Fauci, el exmédico líder en enfermedades infecciosas del país, y George Soros, el financiero liberal— llevaron a una imagen de los dos hombres fusionados, Higgins dicho.

Los medios sintéticos se han utilizado en las últimas semanas para difundir falsedades en línea, a veces con una procedencia poco clara y otras veces con el creador del material regodeándose al respecto.

El mes pasado, se difundió un video falso en Twitter que parecía mostrar a la senadora Elizabeth Warren (D-Mass.) afirmando que a los republicanos no se les debería permitir votar. Twitter lo etiquetó como "[audio alterado] (https://help.twitter.com/en/rules-and-policies/manipulated-media)", y una de las principales cuentas que circulaba el material falsificado fue suspendida más tarde.

Cuando el activista de extrema derecha Jack Posobiec tuiteó un video que parecía mostrar al presidente Biden anunciando un reclutamiento militar para responder a la ofensiva de Rusia en Ucrania, lo describió como un "adelanto de lo que vendrá". Twitter aplicó una etiqueta al tuit que decía: "El video que se muestra es un 'deepfake' creado con la ayuda de inteligencia artificial (IA)".

Posobiec, en una comparecencia este mes en la Conferencia de Acción Política Conservadora, defendió la táctica. “Entonces, esta semana, hice una falsificación profunda de Joe Biden que llamó un poco la atención”, dijo. Dijo que la medida fue rechazada no solo por los verificadores de datos, sino también por algunos de la derecha que le preguntaron: "¿Cómo puedes hacer eso? ¿Por qué harías algo como esto?".

"Que se jodan todos", dijo sobre los verificadores de hechos y los principales medios de comunicación.

Las principales empresas de tecnología [reforzaron sus políticas](https://www.washingtonpost.com/technology/2019/05/23/faked-pelosi-videos-slowed-make-her-appear-drunk-spread-across-social-media /?itid=lk_inline_manual_44) contra los deepfakes después de la rápida difusión en las redes sociales de un video distorsionado de la presidenta de la Cámara de Representantes, Nancy Pelosi (D-Calif.), en 2019. Al año siguiente, Meta prohibió a los usuarios publicar videos altamente manipulados, pero dejó la puerta abierta. para videos manipulados que pretenden ser una parodia o una sátira. Twitter también introdujo una nueva regla que prohíbe a los usuarios compartir medios engañosos y manipulados que puedan causar daño, como tuits que podrían generar violencia, disturbios civiles generalizados o amenazar la privacidad de alguien.

"Desde entonces, la tecnología se ha vuelto más sofisticada pero mucho más difícil de detectar", dijo Carusone. "Y ninguno de ellos ha realizado inversiones significativas en la forma en que no solo detectarán estos problemas, sino que luego aplicarán sus políticas contra ellos".

Agregó: "Lo que veo aquí es una especie de salva inicial en un nuevo frente en la guerra contra la desinformación".

Jessica González, codirectora ejecutiva del grupo de defensa de los medios Free Press, dijo que los gigantes tecnológicos están menos equipados para combatir las falsificaciones tras los despidos generalizados en la industria. Meta, Google y Twitter han despedido colectivamente a decenas de miles de trabajadores en los últimos meses.

Desde que se hizo cargo de Twitter en octubre, Elon Musk ha suavizado las políticas de la plataforma contra el discurso de odio, ha reincorporado a personas influyentes extremistas y [reducido](https://www.washingtonpost.com/technology/2022/11/22/elon-musk-twitter -content-moderations/?itid=lk_inline_manual_21&itid=lk_inline_manual_49) las prácticas de moderación de contenido de la empresa a través de recortes drásticos en su fuerza laboral.

“No sé si Twitter tiene el personal o el deseo francamente de asegurarse de que el contenido compartido en su sitio sea preciso”, dijo González. "Hay otros deepfakes mejores que representan un riesgo aún mayor, especialmente a medida que avanzamos en la temporada electoral. Y es importante que las personas tengan información precisa sobre las personas que se postulan para el cargo".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd