Incidentes Asociados

OpenAI, Meta y otros 8 chatbots utilizan la red de desinformación como fuente Rashmi Ramesh (rashmiramesh_) • 19 de junio de 2024
Los populares chatbots de inteligencia artificial están plagados de desinformación rusa, advierte NewsGuard, el sistema de clasificación de sitios web de noticias e información.
Los investigadores de NewsGuard introdujeron mensajes en 10 chatbots, entre ellos ChatGPT-4 de OpenAI, Grok y Mistral de Elon Musk, y descubrieron que aproximadamente un tercio de las respuestas contenían desinformación extraída de una red de sitios de noticias locales falsos y vídeos de YouTube creados por John Mark Dougan, un fugitivo estadounidense que obtuvo asilo político en Rusia.
Copilot de Microsoft, Meta AI, Claude de Anthropic y Google Gemini también formaron parte del estudio.
La empresa puso a prueba casi 600 mensajes basados en 19 narrativas falsas vinculadas a la red de desinformación rusa, como afirmaciones falsas sobre corrupción del presidente ucraniano Volodymyr Zelenskyy.
Los chatbots regurgitaron como si fueran hechos la información errónea encontrada en los sitios de Dougan, como una supuesta intervención telefónica descubierta en la residencia de Mar-a-Lago del expresidente Donald Trump, dijo NewsGuard.
Los chatbots no reconocieron que sitios como "The Boston Times" o "The Houston Post" son frentes de propaganda rusa, probablemente creados con la ayuda de IA. "Este círculo vicioso significa que las plataformas de IA generan, repiten y validan falsedades", dijo NewsGuard.
La compañía dijo que no puntuó a cada chatbot por la cantidad de desinformación que difundía, ya que el problema era "generalizado en toda la industria de la IA en lugar de ser específico de un determinado modelo de lenguaje grande".
Los hallazgos llegan en un momento en el que la gente ha comenzado a confiar en fuentes como influencers de las redes sociales y chatbots de inteligencia artificial para obtener información rápida y personalizada.
La desinformación mediante inteligencia artificial ha estado muy extendida este año electoral, ya que los actores maliciosos utilizan la tecnología como arma para generar video y audio deepfakes para difundir información errónea (véase: Los hackeos de APT y las filtraciones alteradas por IA plantean las mayores amenazas electorales).
Las empresas de redes sociales y los gigantes de la inteligencia artificial se han comprometido a frenar el uso indebido de la tecnología para propagar información falsa que pueda influir en las elecciones. Recientemente, OpenAI descubrió que los actores de amenazas que llevaban a cabo campañas de influencia encubiertas también dependían de chatbots de IA.