Incidentes Asociados
(TNND) --- Los populares chatbots de inteligencia artificial están siendo inundados con propaganda rusa, y gran parte de esa desinformación se repite a los estadounidenses desprevenidos que buscan respuestas de los sistemas de IA, según un nuevo informe de NewsGuard.
NewsGuard, un organismo de control de la desinformación en línea, auditó 10 herramientas de IA generativa líderes de OpenAI, X, Microsoft, Google, Meta y más.
Los chatbots repitieron colectivamente narrativas falsas de desinformación rusa un tercio del tiempo, según NewsGuard.
Los chatbots de IA proporcionaron respuestas no válidas aproximadamente el 18% del tiempo y desacreditaron las narrativas falsas aproximadamente el 48% del tiempo.
Algunos chatbots incluso citaron directamente artículos específicos que provenían de propagandistas rusos.
NewsGuard dijo que la desinformación está siendo difundida por una red con sede en Moscú llamada "Pravda", que se lanzó poco después de que Rusia invadiera Ucrania.
Desde entonces, la red se ha expandido a 150 dominios en varios idiomas que han agregado contenido de los medios estatales rusos, personas influyentes pro-Kremlin y funcionarios del gobierno ruso.
Pravda publica 3,6 millones de artículos al año, según el American Sunlight Project. Ese grupo publicó un informe el mes pasado con hallazgos similares sobre la red de propaganda rusa.
El Proyecto American Sunlight dijo que la red rusa está "preparando" a los chatbots de IA para que compartan sus narrativas.
"A veces lo llamamos una infiltración de datos o un envenenamiento de datos", dijo Daniel Schiff, un científico de políticas y codirector del Laboratorio de Gobernanza e Inteligencia Artificial Responsable de la Universidad de Purdue.
Schiff dijo que los agentes rusos están tratando de blanquear información falsa y narrativas prorrusas a través de chatbots sustancialmente no regulados.
"Esto no es terriblemente sorprendente, pero es muy preocupante", dijo.
Schiff dijo que el informe de NewsGuard "debería ser una advertencia realmente importante para nosotros".
Los sistemas de IA son fáciles de engañar tanto de formas simples como complejas, dijo Schiff.
Los chatbots extraen información de todo Internet, incluidas fuentes no verificadas.
"Las buenas empresas (de IA) al menos están intentando deshacerse de los datos mal examinados, pero es muy difícil hacerlo", dijo. "Puede que no estén dedicando demasiada energía a ello. Por lo tanto, al publicar un montón de información falsa y enviarla deliberadamente a canales a los que los modelos de IA tienen más probabilidades de acceder, pueden cambiar absolutamente el entrenamiento de los modelos, los pesos de los modelos y, para su objetivo, los resultados del modelo para que digan cosas que les sean favorables".
Schiff dijo que no hay suficientes salvaguardas establecidas, como regulaciones o mecanismos técnicos bien examinados.
Y dijo que los estadounidenses a veces pueden confiar demasiado en las respuestas de los chatbots de IA.
"Hay evidencia mixta sobre cuánto confían los estadounidenses en la IA en general, pero creo que hay evidencia suficiente de confianza excesiva, y veo esto en mis estudiantes cada semestre", dijo.
La gente puede saber que los sistemas de IA generativa sufren de "alucinaciones".
La gente puede saber que se supone que deben verificar dos veces las respuestas de la IA con fuentes conocidas y confiables.
Pero los chatbots de IA pueden sonar muy persuasivos.
Schiff advirtió que la IA no tiene necesariamente razón, sin importar lo bien articulada que esté en sus respuestas.
Las campañas de desinformación pueden tardar tiempo en afectar los corazones y las mentes, pero pueden funcionar, dijo Schiff.
"Por lo tanto, elija cualquier problema de política interna, un problema internacional, una guerra, y puede influir en segmentos de la población para que crean cosas que son falsas, para que crean cosas que no creerían si se tomaran el tiempo de pensar en los problemas por sí mismos", dijo.