Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4886

Incidentes Asociados

Incidente 70136 Reportes
American Asylum Seeker John Mark Dougan in Russia Reportedly Spreads Disinformation via AI Tools and Fake News Network

Incidente 7344 Reportes
Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

Loading...
La mayoría de los chatbots de inteligencia artificial están “contaminados” y difunden propaganda rusa, según un estudio
firstpost.com · 2024

Según un estudio del servicio de monitoreo de noticias NewsGuard, los principales modelos de IA generativa, incluido ChatGPT de OpenAI, estarían repitiendo información errónea rusa.

Esta revelación surge en medio de crecientes preocupaciones sobre el papel de la IA en la difusión de información falsa, especialmente durante un año marcado por elecciones globales en las que los usuarios dependen cada vez más de los chatbots para obtener información precisa.

El estudio de NewsGuard tenía como objetivo investigar si los chatbots de IA podían perpetuar y validar la información errónea. Al introducir 57 indicaciones en 10 chatbots diferentes, el estudio descubrió que estos modelos de IA repetían narrativas de desinformación rusas el 32 por ciento del tiempo.

Las indicaciones utilizadas en el estudio se centraron en narrativas de desinformación que se sabe que son propagadas por John Mark Dougan, un fugitivo estadounidense que supuestamente difunde falsedades desde Moscú. Los chatbots probados incluyeron ChatGPT-4, Smart Assistant de You.com, Grok, Inflection, Mistral, Copilot de Microsoft, Meta AI, Claude de Anthropic, Google Gemini y Perplexity.

De las 570 respuestas generadas por estos chatbots, 152 contenían desinformación explícita, 29 repetían las afirmaciones falsas con una exención de responsabilidad y 389 no contenían ninguna información errónea. Las respuestas libres de desinformación se negaban a responder a las indicaciones en 144 respuestas o proporcionaban una desacreditación de las afirmaciones falsas en 245 respuestas.

NewsGuard destacó que los chatbots no reconocieron sitios de propaganda como el "Boston Times" y el "Flagstaff Post", amplificando inadvertidamente las narrativas de desinformación. Esto crea un ciclo problemático en el que las plataformas de IA generan, repiten y validan falsedades.

El estudio se centró en 19 narrativas falsas significativas vinculadas a la red de desinformación rusa. Estas incluían afirmaciones sobre la corrupción que involucraba al presidente ucraniano Volodymyr Zelenskyy y otra desinformación con carga política.

A medida que la tecnología de IA continúa evolucionando, los gobiernos de todo el mundo se esfuerzan por regular su uso para proteger a los usuarios de la desinformación y el sesgo. NewsGuard ha presentado sus hallazgos al Instituto de Seguridad de la IA del Instituto Nacional de Estándares y Tecnología (NIST) de Estados Unidos y a la Comisión Europea, con la esperanza de influir en futuras medidas regulatorias.

En un desarrollo relacionado, el Comité de Supervisión y Responsabilidad de la Cámara de Representantes de Estados Unidos ha iniciado una investigación sobre el propio NewsGuard, cuestionando su posible papel en las campañas de censura.

Esto subraya el complejo panorama de la regulación de la información, donde incluso las organizaciones de control están bajo escrutinio.

Los hallazgos del estudio de NewsGuard plantean preguntas importantes sobre la confiabilidad de los chatbots de IA como fuentes de información. A medida que estas herramientas se integran más en la vida cotidiana, garantizar su precisión e imparcialidad se vuelve crucial.

El estudio sugiere que sin las salvaguardas adecuadas, los modelos de IA podrían contribuir inadvertidamente a la propagación de información errónea, lo que destaca la necesidad de una supervisión y un perfeccionamiento continuos de estas tecnologías.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd