Registro de citas para el Incidente 486

Description: Synthesia's AI-generated video-making tool was reportedly used by Spamouflage to disseminate pro-China propaganda news on social media using videos featuring highly realistic fictitious news anchors.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por Synthesia e implementado por Spamouflage Dragon, perjudicó a Synthesia , YouTube users , Twitter Users y Facebook users.

Estadísticas de incidentes

ID
486
Cantidad de informes
5
Fecha del Incidente
2022-12-01
Editores
Khoa Lam
Las personas en pantalla son falsas. La desinformación es real.
nytimes.com · 2023

En un video, un presentador de noticias con el cabello oscuro perfectamente peinado y una barba sin afeitar describió lo que vio como una vergonzosa falta de acción de los Estados Unidos contra la violencia armada.

En otro video, una presen…

Falsifica hasta que lo logres
graphika.com · 2023

Actores pro-chinos promueven imágenes de video generadas por IA de personas ficticias en una operación de influencia en línea


  • A fines de 2022, Graphika observó instancias limitadas de Spamouflage, una operación de influencia pro china (IO…
Investigación: Deepfake 'Presentadores de noticias' en imágenes a favor de China
voanews.com · 2023

Washington — Los "transmisores de noticias" parecen sorprendentemente reales, pero son falsificaciones profundas generadas por IA en los primeros videos de propaganda de su tipo que un informe de investigación publicado el martes atribuyó a…

Lectores de noticias deepfake lanzan noticias a favor de China
thetimes.co.uk · 2023

La tecnología de inteligencia artificial de una empresa británica ha sido secuestrada para crear un canal de noticias favorable a China con un par de presentadores generados por computadora.

Wolf News había estado creando un perfil en las r…

Deepfakes y desinformación representan una amenaza creciente en Asia
thediplomat.com · 2023

Las noticias recientes sobre el uso de avatares generados por computadora por una [campaña de influencia a favor de China] (https://www.nytimes.com/2023/02/07/technology/artificial-intelligence-training-deepfake.html) una vez nuevamente apu…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents