Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4029

Incidentes Asociados

Incidente 7742 Reportes
Covert AI Influence Operations Linked to Russia, China, Iran, and Israel, OpenAI Reports

Loading...
OpenAI afirma que Rusia y China utilizaron su inteligencia artificial en campañas encubiertas
nytimes.com · 2024

OpenAI dijo el jueves que había identificado y desbaratado cinco campañas en línea que usaban sus tecnologías de inteligencia artificial generativa para manipular engañosamente la opinión pública en todo el mundo e influir en la geopolítica.

Los esfuerzos fueron llevados a cabo por actores estatales y empresas privadas en Rusia, China, Irán e Israel, dijo OpenAI en un informe sobre campañas de influencia encubiertas. Las operaciones utilizaron la tecnología de OpenAI para generar publicaciones en las redes sociales, traducir y editar artículos, escribir titulares y depurar programas informáticos, generalmente para ganar apoyo para campañas políticas o para cambiar la opinión pública en conflictos geopolíticos.

El informe de OpenAI es la primera vez que una importante empresa de IA revela cómo se usaron sus herramientas específicas para tal engaño en línea, dijeron los investigadores de las redes sociales. El reciente auge de la IA generativa ha planteado preguntas sobre cómo la tecnología podría contribuir a la desinformación en línea, especialmente en un año en el que se celebran elecciones importantes en todo el mundo.

Ben Nimmo, investigador principal de OpenAI, dijo que después de toda la especulación sobre el uso de IA generativa en tales campañas, la empresa tenía como objetivo mostrar las realidades de cómo la tecnología estaba cambiando el engaño en línea.

"Nuestros estudios de caso proporcionan ejemplos de algunas de las campañas de influencia más difundidas y de más larga duración que están activas actualmente", dijo.

Las campañas a menudo usaban la tecnología de OpenAI para publicar contenido político, dijo Nimmo, pero la empresa tenía dificultades para determinar si apuntaban a elecciones específicas o solo buscaban irritar a la gente. Agregó que las campañas no habían logrado ganar mucha tracción y que las herramientas de IA no parecían haber expandido su alcance o impacto.

"Estas operaciones de influencia aún luchan por construir una audiencia", dijo Nimmo.

Pero Graham Brookie, director sénior de los Laboratorios de Investigación Forense Digital del Atlantic Council, advirtió que el panorama de la desinformación en línea podría cambiar a medida que la tecnología de IA generativa se volviera cada vez más poderosa. Esta semana, OpenAI, que fabrica el chatbot ChatGPT, dijo que había comenzado a entrenar a un nuevo robot insignia de IA. modelo](https://www.nytimes.com/2024/05/28/technology/openai-gpt4-new-model.html) que traería "el siguiente nivel de capacidades".

"Este es un nuevo tipo de herramienta", dijo Brookie. "Queda por ver qué efecto tendrá".

(The New York Times ha demandado OpenAI y su socio, Microsoft, alegando infracción de derechos de autor de contenido de noticias relacionado con sistemas de IA).

Al igual que Google, Meta y Microsoft, OpenAI ofrece chatbots en línea y otras herramientas de IA que pueden escribir publicaciones en redes sociales, generar imágenes fotorrealistas y escribir programas informáticos. En su informe, la compañía dijo que sus herramientas habían sido utilizadas en campañas de influencia que los investigadores habían seguido durante años, incluyendo una campaña rusa llamada Doppelganger y una campaña china llamada Spamouflage.

La campaña Doppelganger utilizó la tecnología de OpenAI para generar comentarios anti-Ucrania que fueron publicados en X en inglés, francés, alemán, italiano y polaco, dijo OpenAI. Las herramientas de la compañía también se utilizaron para traducir y editar artículos que apoyaban a Rusia en la guerra en Ucrania al inglés y francés, y para convertir artículos de noticias anti-Ucrania en publicaciones de Facebook.

Las herramientas de OpenAI también se utilizaron en una campaña rusa previamente desconocida que se dirigió a personas en Ucrania, Moldavia, los Estados Bálticos y los Estados Unidos, principalmente a través del servicio de mensajería Telegram, dijo la compañía. La campaña utilizó IA para generar comentarios en ruso e inglés sobre la guerra en Ucrania, así como sobre la situación política en Moldavia y la política estadounidense. El esfuerzo también utilizó herramientas de OpenAI para depurar código de computadora que aparentemente fue diseñado para publicar información automáticamente en Telegram.

Los comentarios políticos recibieron pocas respuestas y "me gusta", dijo OpenAI. Los esfuerzos también fueron poco sofisticados en ocasiones. En un momento, la campaña publicó texto que obviamente había sido generado por IA. "Como modelo de lenguaje de IA, estoy aquí para ayudar y proporcionar el comentario deseado", decía una publicación. En otros momentos, publicó un inglés deficiente, lo que llevó a OpenAI a calificar el esfuerzo de "mala gramática".

Spamouflage, que durante mucho tiempo se ha atribuido a China, utilizó la tecnología de OpenAI para depurar códigos, buscar asesoramiento sobre cómo analizar las redes sociales e investigar los eventos actuales, dijo OpenAI. Sus herramientas también se utilizaron para generar publicaciones en las redes sociales que denigraban a las personas que habían criticado al gobierno chino.

La campaña iraní, asociada con un grupo llamado la Unión Internacional de Medios Virtuales, utilizó herramientas de OpenAI para producir y traducir artículos y titulares de formato largo que tenían como objetivo difundir sentimientos pro iraníes, anti israelíes y anti estadounidenses en sitios web, según el informe.

La campaña israelí, a la que OpenAI llamó Zeno Zeno, estuvo a cargo de una empresa que gestiona campañas políticas, afirmó la empresa. Utilizó la tecnología de OpenAI para generar personajes ficticios y biografías destinadas a sustituir a personas reales en los servicios de redes sociales utilizados en Israel, Canadá y Estados Unidos y para publicar mensajes antiislámicos.

Si bien la IA generativa actual puede ayudar a que las campañas sean más eficientes, las herramientas no han creado la avalancha de desinformación convincente que muchos expertos en IA habían predicho, según el informe de OpenAI.

"Sugiere que algunos de nuestros mayores temores sobre las operaciones de influencia y la desinformación habilitadas por IA aún no se han materializado", dijo Jack Stubbs, director de inteligencia de Graphika, que rastrea la manipulación de los servicios de redes sociales y revisó los hallazgos de OpenAI.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd