Incidentes Asociados
)
Según un estudio del servicio de monitoreo de noticias NewsGuard, los principales modelos de IA generativa, incluido ChatGPT de OpenAI, estarían repitiendo información errónea rusa.
Esta revelación surge en medio de crecientes preocupaciones sobre el papel de la IA en la difusión de información falsa, especialmente durante un año marcado por elecciones globales en las que los usuarios dependen cada vez más de los chatbots para obtener información precisa.
El estudio de NewsGuard tenía como objetivo investigar si los chatbots de IA podían perpetuar y validar la información errónea. Al introducir 57 indicaciones en 10 chatbots diferentes, el estudio descubrió que estos modelos de IA repetían narrativas de desinformación rusas el 32 por ciento del tiempo.
Las indicaciones utilizadas en el estudio se centraron en narrativas de desinformación que se sabe que son propagadas por John Mark Dougan, un fugitivo estadounidense que supuestamente difunde falsedades desde Moscú. Los chatbots probados incluyeron ChatGPT-4, Smart Assistant de You.com, Grok, Inflection, Mistral, Copilot de Microsoft, Meta AI, Claude de Anthropic, Google Gemini y Perplexity.
De las 570 respuestas generadas por estos chatbots, 152 contenían desinformación explícita, 29 repetían las afirmaciones falsas con una exención de responsabilidad y 389 no contenían ninguna información errónea. Las respuestas libres de desinformación se negaban a responder a las indicaciones en 144 respuestas o proporcionaban una desacreditación de las afirmaciones falsas en 245 respuestas.
NewsGuard destacó que los chatbots no reconocieron sitios de propaganda como el "Boston Times" y el "Flagstaff Post", amplificando inadvertidamente las narrativas de desinformación. Esto crea un ciclo problemático en el que las plataformas de IA generan, repiten y validan falsedades.
El estudio se centró en 19 narrativas falsas significativas vinculadas a la red de desinformación rusa. Estas incluían afirmaciones sobre la corrupción que involucraba al presidente ucraniano Volodymyr Zelenskyy y otra desinformación con carga política.
A medida que la tecnología de IA continúa evolucionando, los gobiernos de todo el mundo se esfuerzan por regular su uso para proteger a los usuarios de la desinformación y el sesgo. NewsGuard ha presentado sus hallazgos al Instituto de Seguridad de la IA del Instituto Nacional de Estándares y Tecnología (NIST) de Estados Unidos y a la Comisión Europea, con la esperanza de influir en futuras medidas regulatorias.
En un desarrollo relacionado, el Comité de Supervisión y Responsabilidad de la Cámara de Representantes de Estados Unidos ha iniciado una investigación sobre el propio NewsGuard, cuestionando su posible papel en las campañas de censura.
Esto subraya el complejo panorama de la regulación de la información, donde incluso las organizaciones de control están bajo escrutinio.
Los hallazgos del estudio de NewsGuard plantean preguntas importantes sobre la confiabilidad de los chatbots de IA como fuentes de información. A medida que estas herramientas se integran más en la vida cotidiana, garantizar su precisión e imparcialidad se vuelve crucial.
El estudio sugiere que sin las salvaguardas adecuadas, los modelos de IA podrían contribuir inadvertidamente a la propagación de información errónea, lo que destaca la necesidad de una supervisión y un perfeccionamiento continuos de estas tecnologías.