Incidentes Asociados

Un deepfake de una explosión en el Pentágono que provocó la caída del mercado de valores ejemplificó los riesgos de desinformación de [IA generativa] (https://mashable.com/category/artificial-intelligence).
El lunes, una imagen aparentemente generada por IA de lo que parecía una explosión fuera del Pentágono circuló en Twitter. El Departamento de Policía de Arlington desacreditó rápidamente la imagen tuiteando: "NO se está produciendo ninguna explosión o incidente en o cerca de la reserva del Pentágono, y no hay peligro inmediato ni riesgos para el público".
Pero no antes de que el mercado de valores cayera un 0,26 % antes de recuperarse, según [Insider(opens in a new tab)](https://www.insider.com/ai-generated-hoax-explosion-pentagon-viral-markets -sumergido-2023-5).
No está claro cómo se creó la imagen, pero tiene los signos reveladores de una imagen generada por IA. La cerca frente al edificio está borrosa y las columnas parecen tener diferentes anchos. Cualquier detective de las redes sociales acostumbrado a detectar imágenes retocadas con Photoshop de celebridades y personas influyentes lo habría notado, pero a medida que la IA generativa continúa mejorando, las falsificaciones profundas serán más difíciles de detectar.
Incluso con la rápida respuesta del Departamento de Policía de Arlington, el desorden del sistema de verificación de Twitter agravó el problema. Una de las cuentas que tuiteó la imagen era una cuenta verificada que se hacía pasar por una fuente de noticias de Bloomberg. Esa cuenta, llamada @BloombergFeed, ha sido suspendida desde entonces.
Otras cuentas que tuitearon la imagen fueron @DeItaone y la cuenta del sitio RT, propiedad de los medios estatales rusos. Ahora que cualquiera puede pagar para ser verificado en Twitter, situaciones como esta son la tormenta perfecta de desinformación.
Una cuenta falsa de Twitter comparte una imagen falsa que lleva a consecuencias reales. Bienvenido a 2023.