Incidentes Asociados
El lunes por la mañana, una cuenta verificada de Twitter llamada Bloomberg Feed compartió un tuit siniestro. Debajo de las palabras, "Gran explosión cerca del complejo del Pentágono en Washington, D.C. - Informe inicial", mostraba una imagen de una enorme columna de humo negro junto a un edificio vagamente parecido al Pentágono.
En una inspección más cercana, la imagen era falsa, probablemente generada por inteligencia artificial, y el informe de una explosión fue rápidamente desacreditado, aunque no antes de que fuera recogido por grandes cuentas, incluido el órgano de medios estatal ruso Russia Today. Es posible que el tuit también haya movido brevemente el mercado de valores, ya que el índice industrial Dow Jones cayó 85 puntos en cuatro minutos y luego se recuperó con la misma rapidez.
El principal ejemplo de los peligros en el sistema de pago para verificar: esta cuenta, que tuiteó una foto (muy probablemente generada por IA) de una historia (falsa) sobre una explosión en el Pentágono, a primera vista parece un Bloomberg legítimo. noticias. pic.twitter.com/SThErCln0p
— Andy Campbell (@AndyBCampbell) 22 de mayo de 2023
En general, el engaño, el último de una serie de imágenes generadas por IA para engañar a algunos usuarios de las redes sociales, parece haber causado poco daño inmediato. Desde entonces, Twitter suspendió la cuenta de Bloomberg Feed, que no estaba relacionada con la verdadera organización de medios de Bloomberg, y en unos 20 minutos, las autoridades locales habían desacreditado el informe.
“Solo mirando la imagen en sí, ese no es el Pentágono”, dijo Nate Hiner, capitán del departamento de bomberos en Arlington, Virginia, donde se encuentra el Pentágono. “No tengo idea de qué es ese edificio. No hay ningún edificio que se parezca a eso en Arlington”.
Sin embargo, los mecanismos involucrados, desde la amplificación de la imagen por grandes cuentas de propaganda hasta la respuesta casi instantánea del mercado de valores, sugieren el potencial de más travesuras de este tipo si las herramientas de IA continúan incursionando en campos como la moderación de las redes sociales, la redacción de noticias y el comercio de acciones. .
Y Twitter parece un vector cada vez más probable, ya que el nuevo propietario, Elon Musk, destruyó su fuerza laboral humana, despidió a un equipo que solía verificar las tendencias virales y cambió la verificación de la cuenta de un proceso de autenticación manual a uno que está en gran parte automatizado y paga. -para jugar. Las insignias azules de la firma alguna vez indicaron autoridad para figuras públicas, grandes organizaciones, celebridades y otras personas en riesgo de suplantación de identidad. Ahora, Twitter los otorga a cualquiera que esté dispuesto a pagar $8 al mes y confirme su número de teléfono.
Twitter no respondió a una solicitud de comentarios.
Dado que los expertos predicen que la IA afectará a millones de trabajos humanos, la preocupación no es solo si la información errónea generada por la IA podría engañar a las personas, sino también si podría engañar a sus compañeros sistemas automatizados.
“Este no es un problema de IA per se”, dijo Renée DiResta, gerente de investigación del Observatorio de Internet de Stanford y experta en cómo circula la información errónea. “Cualquiera con experiencia en Photoshop podría haber hecho esa imagen; irónicamente, probablemente podría haberla hecho mejor. Pero es una mirada a cómo las señales que ayudan a las personas a decidir si la información sobre noticias de última hora es confiable en Twitter se han vuelto inútiles, al igual que la capacidad de crear irrealidad de alta resolución se ha puesto a disposición de todos”.
Una de las primeras cuentas en publicar sobre el evento falso fue una cuenta verificada llamada OSINTdefender, que tuiteó el informe de la explosión, junto con la imagen falsa, a sus 336.000 seguidores a las 10:04 a. m. El edificio de la fotografía se parece poco al Pentágono, pero tiene algunas características de haber sido generado por IA. El tuit ha sido borrado.
Alcanzado a través de Twitter, el propietario de la cuenta OSINTDefender dijo que había escuchado el informe por primera vez en la plataforma social Discord unos minutos antes de un usuario que se hace llamar "Walter Bloomberg". Dijeron que la imagen procedía de la página de Facebook, ya eliminada, de una persona que afirmaba trabajar en Arlington.
En los minutos siguientes, otras grandes cuentas publicaron informes falsos redactados de manera similar en Twitter, incluido Walter Bloomberg, que utiliza el mismo nombre en ambas plataformas. Su tuit de las 10:06 a. m. obtuvo al menos 730 000 visitas**.**
Muchas de las cuentas que lo compartieron se hacen pasar por agregadores de noticias financieras, incluida una cuenta de 386.000 seguidores con el identificador @financialjuice, llamada "Breaking Market News", y otra cuenta llamada "Bloomberg Feed" que no está relacionada con el verdadero Bloomberg.
Algunas de las cuentas tenían marcas de verificación azules "verificadas", mientras que las organizaciones legítimas que compartían la verdad no las tenían. La cuenta oficial de la [Agencia de Protección de la Fuerza del Pentágono] (https://twitter.com/PFPAOfficial), que supervisa el Pentágono, no paga por una marca de verificación azul, y Twitter no le ha dado una marca de verificación gris que indique que es una institución verificada. La agencia retuiteó un mensaje de las fuerzas del orden locales que decía que “NO hubo explosión” a las 10:27 a. m.; el tweet tenía solo 78,000 visitas a las 4 p.m.
Hiner, el capitán del Departamento de Bomberos de Arlington que maneja las comunicaciones de emergencia del departamento de Virginia del Norte, dijo que le tomó unos cinco minutos darse cuenta de que los informes en Twitter eran falsos.
A las 10:10 a. m., Hiner estaba en una reunión cuando recibió la primera llamada. Salió de la reunión para investigar.
¿La primera señal de que algo andaba mal? No había recibido ninguna alerta del software de emergencia del departamento, First Due, que monitorea el envío y le envía una notificación automática cuando se envían socorristas para incidentes importantes como incendios.
Luego, revisó su terminal de datos móviles, esencialmente una computadora portátil que enumera todos los incidentes activos del 911 en Arlington, y no encontró señales de que algo sucediera cerca del Pentágono.
“No hubo llamadas médicas, ni llamadas de bomberos, ni incidentes de ningún tipo”, dijo.
Fue entonces cuando finalmente abrió las redes sociales él mismo, esperando ver algunas cuentas de testigos oculares en Twitter. Pero de nuevo, no había nada. Todo lo que vio fue la foto manipulada de la explosión.
En ese momento, se acercó a los portavoces del Departamento de Defensa y de la Agencia de Protección de la Fuerza del Pentágono. A las 10:27 a. m., publicó en la cuenta de Twitter de Arlington Fire que los informes eran falsos.
“NO se está produciendo ninguna explosión o incidente en o cerca de la reserva del Pentágono”, decía el tuit, “y no hay peligro o peligro inmediato para el público”.
Hiner dijo que a veces recibe consultas extrañas de los residentes de Arlington después de ver un camión de bomberos en su vecindario o recibe llamadas equivocadas basadas en el tráfico del escáner. Pero no puede recordar otro momento, dijo, “en el que se informó un incidente de emergencia en las redes sociales que era 100 por ciento inexacto”.
Desde imágenes retocadas con Photoshop de un tiburón en una carretera durante el huracán Sandy hasta informes falsos de muertes de celebridades, las mentiras virales no son nada nuevo en Twitter. Las herramientas de inteligencia artificial generativa, desde chatbots como ChatGPT que pueden escribir noticias falsas hasta herramientas de arte de inteligencia artificial como Midjourney y Stable Diffusion, son solo las herramientas más nuevas en el kit de los bromistas. Se han utilizado en los últimos meses para crear otras imágenes virales, incluida una que parecía mostrar el arresto de Donald Trump y otra que mostraba al Papa Francisco haciendo una declaración de moda.
En su mayor parte, los principales medios de comunicación han refutado con éxito la desinformación, y el mundo ha marchado como antes. Aún así, algunos engaños han provocado el caos, en diversos grados. En 2013, un tuit falso sobre un [ataque a la Casa Blanca](https://www.washingtonpost.com/business/economy/market-quavers-after-fake-ap-tweet-says-obama-was-hurt- in-white-house-explosions/2013/04/23/d96d2dc6-ac4d-11e2-a8b9-2a63d75b5459_story.html?itid=lk_inline_manual_45) provocó una rápida caída en los mercados financieros.
Con el tiempo, los usuarios de las redes sociales y los medios de comunicación han aprendido a mirar con escepticismo los informes virales, especialmente de fuentes no verificadas. Pero el nuevo sistema de verificación de Twitter significa que la marca de verificación azul, que alguna vez fue un atajo visual que transmitía un mínimo de autoridad en una cuenta, ya no cumple esa función.
Sam Gregory, el director ejecutivo de la organización de derechos humanos Witness, cuyo grupo ha estudiado imágenes falsas y desinformación, dijo que la imagen de la explosión del Pentágono tuiteada el lunes tiene múltiples características de falsificación, incluidas fallas visuales y una vista inexacta del Pentágono. El desafío con tales falsificaciones, dijo Gregory, es la velocidad con la que pueden volar a través de Internet.
“Estos circulan rápidamente, y la capacidad de hacer esa verificación de hechos o desacreditar o verificar a nivel institucional se mueve más lentamente y no llega a las mismas personas”, dijo.
Aunque la imagen puede ser obviamente falsa para algunos, el hecho de que estuviera adjunta a un reclamo que suena autoritario hizo que fuera mucho más probable que llamara la atención, agregó Gregory.
“La forma en que las personas están expuestas a estas falsificaciones superficiales, no requiere que algo se vea exactamente como otra cosa para llamar la atención”, dijo. “La gente tomará y compartirá fácilmente cosas que no se ven exactamente bien pero se sienten bien”.
En cuanto a por qué se compartieron las falsificaciones, no está claro. Algunas falsificaciones se han compartido para sumar puntos políticos, mientras que otras se han utilizado para trollear o generar una audiencia que la cuenta puede monetizar.
“A veces lo hacen maliciosamente, o a veces solo lo hacen para obtener muchas vistas”, dijo. “Puedes obtener mucha audiencia muy rápidamente con esto, y esa es una droga poderosa”.
El presidente de la junta del condado de Arlington, Christian Dorsey (D), dijo que los gobiernos locales como el de Arlington enfrentan un desafío cada vez mayor para responder a la información errónea, ya que la IA facilita la generación rápida de falsificaciones plausibles. Dijo que los funcionarios intentan guiar a los residentes para que sigan a las autoridades locales en Twitter y recurran a ellos para obtener información confiable en lugar de “algún identificador de Twitter aleatorio”. El condado de Arlington y sus departamentos de policía y bomberos/EMS están todos verificados con un "cheque de plata" en Twitter, lo que indica que son cuentas administradas por el gobierno.
Pero reconoce que eso puede no ser suficiente.
“Nuestro número de seguidores palidece en comparación con algunas de las cuentas de redes sociales más populares que existen. Siempre corres el riesgo de que no penetren tan profundamente”, dijo Dorsey. Pero "en ausencia de una varita mágica, donde estas plataformas aseguran que solo se transmita la mejor información veraz, creo que es lo mejor que podemos hacer".
Jeremy Merrill y Faiz Siddiqui contribuyeron a este informe.