Incidentes Asociados

Las industrias de medios, tecnología y finanzas no están preparadas para una avalancha de imágenes falsas muy convincentes que podrían colapsar los mercados bursátiles y [provocar disturbios políticos](https://inews.co.uk/news/politics/national-security-democracy-danger -new-ai-laws-parliament-2356121?ico=most_popular), dice un experto en inteligencia artificial.
Una imagen generada por IA de una explosión junto a lo que se decía que era un edificio en el Pentágono se compartió en línea el lunes, después de que un usuario lo publicara en Twitter haciéndose pasar por la organización de noticias Bloomberg.
Mientras circulaba, la bolsa de valores S&P 500 cayó alrededor de un 0,3 por ciento, a un mínimo de sesión, antes de recuperarse cuando se confirmó que era falso. RT, el canal de noticias de televisión controlado por el estado ruso, tuiteó la imagen falsa y luego eliminó el tuit poco después.
Henry Ajder, un experto en imágenes falsas profundas, dijo que la imagen era la "primera realmente significativa que esencialmente asustó a los mercados".
Incluso algo que se descubrió que era falso en un corto período de tiempo podría tener un impacto dañino. En manos de malos actores, estas imágenes podrían usarse para colapsar el mercado o hacer que el precio de las acciones se dispare para obtener un rendimiento favorable, dijo Ajder, quien presenta The Future Will Be Synthesised de BBC Radio 4.
"En el futuro, simplemente no será posible para los ojos bien entrenados en muchos casos, solo con la imagen, detectar una falsificación".
La foto fue publicada por un usuario con el nombre de "Bloomberg Feed", que tenía una marca azul al lado, lo que significa que los creadores pagaron los 8 dólares mensuales requeridos a Twitter por una cuenta "verificada".
El verdadero *Bloomberg *sitio de noticias en realidad tiene una marca dorada al lado, lo que significa que es la cuenta oficial de una empresa de otra organización privada. Sin embargo, juzgar si una cuenta es genuina requeriría que el público sepa qué es una marca de oro, lo que cuestiona el sistema de verificación actual de Twitter, dijo Ajder.
Una explosión en el Pentágono sería fácil de verificar rápidamente sobre el terreno, pero ese podría no ser el caso de una explosión en un pueblo de Ucrania, agregó, y la rápida creación y la creciente sofisticación de tales imágenes plantearon un desafío para quienes buscaban para noticias y para periodistas que buscan verificar eventos en un entorno acelerado.
"En un mundo en el que se puede generar cualquier tipo de contenido de manera realista con IA a escala y en cuestión de minutos, se pueden crear 200 imágenes diferentes de este incendio desde distintas perspectivas", dijo Ajder. "Creo que realmente habla de cómo nuestra infraestructura de información y nuestra infraestructura de medios no están preparadas para este contenido generado por IA".
La semana pasada, el director ejecutivo de Open AI, Sam Altman, testificó ante el Congreso de los EE. UU. y estuvo de acuerdo con la necesidad de [regular la IA] (https://inews.co.uk/opinion/the-sci-fi-future-is-here-which- es-por-que-necesitamos-esfuerzos-globales-coordinados-para-regular-ai-2355457?ico=in-line_link) y decir: "Creo que si esta tecnología sale mal, puede salir bastante mal", * The New York Times* informó.
Ajder dijo que el enfoque actual de los riesgos de la IA no era justo, ya que se centra en cómo la gente común puede detectar las falsificaciones, en lugar de exigir una regulación a las empresas de tecnología o gastar más dinero en la moderación del contenido. Las organizaciones de noticias y las empresas de tecnología no estaban "preparadas" para lo que podría venir, agregó.
"Es una tormenta perfecta en la que los medios de comunicación tradicionales toman tiempo para verificar, la naturaleza algorítmica de la plataforma recompensa el contenido controvertido y sensacionalista y las plataformas no tienen mucha moderación de contenido para filtrar estas falsificaciones", dijo.