Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2895

Loading...
Las teorías de la conspiración tienen un nuevo mejor amigo
theatlantic.com · 2023

La historia ha sido durante mucho tiempo un teatro de guerra, el pasado sirviendo como representante en los conflictos sobre el presente. Ron DeSantis es historia distorsionada por prohibir libros sobre racismo en las escuelas de Florida; la gente sigue dividida sobre el enfoque correcto para [repatriar objetos y restos indígenas] (https://www.propublica.org/article/behind-propublica-reporting-on-repatriation); [los Documentos del Pentágono] (https://www.theatlantic.com/magazine/archive/1973/08/the-pentagon-papers-trial/663786/) fueron un intento de tergiversar las narrativas sobre la Guerra de Vietnam. Los nazis tomaron el poder en parte manipulando el pasado: utilizaron propaganda sobre el incendio del Reichstag, el edificio del parlamento alemán, para justificar la persecución de sus rivales políticos y asumir la autoridad dictatorial. Ese ejemplo específico pesa sobre Eric Horvitz, director científico de Microsoft y destacado investigador de IA, quien me dice que la aparente revolución de la IA no solo podría proporcionar una nueva arma a los propagandistas, como lo hicieron las redes sociales a principios de este siglo, sino que también podría remodelar por completo el terreno historiográfico. , tal vez sentando las bases para un incendio del Reichstag moderno.

Los avances en cuestión, incluidos modelos de lenguaje como ChatGPT y generadores de imágenes como DALL-E 2, caen libremente bajo el paraguas de la "IA generativa". Estos son programas poderosos y fáciles de usar que producen texto, imágenes, video y audio sintéticos, todos los cuales pueden ser utilizados por malos actores para [fabricar eventos, personas, discursos e informes de noticias] (https://www .theatlantic.com/technology/archive/2022/12/deepfake-synthetic-media-technology-rise-disinformation/672519/) para sembrar desinformación. Es posible que ya haya visto ejemplos únicos de este tipo de medios: videos falsos del presidente ucraniano Volodymyr Zelensky rindiéndose a Rusia; [imágenes simuladas](https://www.cracked.com/article_37065_joe-rogan-and-ben-shapiro-argue-ratatouille-and-beaches-that-make-you-old-in-an-ai-assisted-masterpiece .html) de Joe Rogan y Ben Shapiro discutiendo sobre la película Ratatouille. A medida que avanza esta tecnología, las fabricaciones fragmentarias podrían dar paso a campañas coordinadas, no solo medios sintéticos sino historias sintéticas completas, como las llamó Horvitz en un documento a fines del año pasado. Y una nueva generación de [motores de búsqueda impulsados por IA] (https://www.theatlantic.com/technology/archive/2023/02/google-microsoft-search-engine-chatbots-unreliability/673081/), liderados por Microsoft y Google, podrían hacer que tales historias sean más fáciles de encontrar y casi imposibles de detectar para los usuarios.

Aunque temores similares sobre las redes sociales, la televisión y la radio resultaron algo alarmistas, hay razones para creer que la IA podría ser realmente la nueva variante de desinformación que hace que las mentiras sobre futuras elecciones, protestas o tiroteos masivos sean más contagiosas e inmunes. . Considere, por ejemplo, la furiosa [gripe aviar] (https://www.theatlantic.com/science/archive/2023/02/bird-flu-avian-influenza-research-covid-lab-leak/673109/) brote, que aún no ha comenzado a propagarse de humano a humano. Un agente político, o un simple conspirador, podría usar programas similares a ChatGPT y DALL-E 2 para generar y publicar fácilmente una gran cantidad de historias sobre laboratorios chinos, de la Organización Mundial de la Salud o del Pentágono que manipulan el virus, retroactivas a varios puntos en el pasado y completas con documentos falsos "filtrados", grabaciones de audio y video. y comentarios de expertos. Una historia sintética en la que una gripe aviar armada por el gobierno estaría lista para funcionar si la gripe aviar alguna vez comenzara a circular entre los humanos. Un propagandista simplemente podría conectar las noticias con su historia de fondo completamente inventada, pero completamente formada y aparentemente bien documentada, sembrada en Internet, difundiendo una ficción que podría [consumir la política de la nación] (https://www.theatlantic.com/science /archive/2023/02/covid-pandemic-origin-china-lab-leak-theory-energy-department/673230/) y respuesta de salud pública. El poder de las historias generadas por IA, me dijo Horvitz, radica en "falsificaciones profundas en una línea de tiempo entremezclada con eventos reales para construir una historia".

También es posible que las historias sintéticas cambien el tipo, pero no la gravedad, de la desinformación ya rampante en línea. Las personas están felices de creer las historias falsas que ven en Facebook, Rumble, Truth Social, YouTube, donde sea. Antes de la web, abundaban la propaganda y las mentiras sobre los extranjeros, los enemigos de la guerra, los alienígenas y Bigfoot. Y en lo que respecta a los medios sintéticos o "deepfakes", la investigación existente sugiere que ofrecen [un beneficio sorprendentemente pequeño en comparación] (https://www.theatlantic.com/technology/archive/2022/12/deepfake-synthetic-media-technology- rise-disinformation/672519/) con manipulaciones más simples, como etiquetar incorrectamente imágenes o escribir noticias falsas. No necesitas tecnología avanzada para que la gente crea una teoría de la conspiración. Aún así, Horvitz cree que estamos en un precipicio: la velocidad a la que la IA puede generar desinformación de alta calidad será abrumadora.

La desinformación automatizada producida a un ritmo y una escala elevados podría permitir lo que él llama "explicaciones generativas adversarias". En una especie de paralelismo con el contenido específico que recibe en las redes sociales, que se prueba y optimiza de acuerdo con lo que la gente interactúa, los propagandistas podrían realizar pequeñas pruebas para determinar qué partes de una narrativa inventada son más o menos convincentes y usar esa retroalimentación junto con la investigación de psicología social para mejorar iterativamente esa historia sintética. Por ejemplo, un programa podría revisar y modular las credenciales y cotizaciones de un experto fabricado para aterrizar con ciertos datos demográficos. Los modelos de lenguaje como ChatGPT también amenazan con ahogar Internet en [texto de Potemkin] (https://arxiv.org/abs/2301.04246) igualmente conspirativo y personalizado, no publicidad dirigida, sino conspiraciones dirigidas.

El plan de Big Tech para reemplazar la búsqueda tradicional en Internet con chatbots podría aumentar sustancialmente este riesgo. Los modelos de lenguaje de IA que se están integrando en Bing y Google son notoriamente terribles en verificadores de hechos y propensos a falsedades, lo que quizás los hace susceptibles de difundir historias falsas. Aunque muchas de las primeras versiones de la búsqueda basada en chatbot dan respuestas al estilo de Wikipedia con notas al pie, el objetivo de una historia sintética es proporcionar un conjunto de fuentes alternativas y convincentes. Y toda la premisa de los chatbots es la conveniencia: que las personas confíen en ellos sin verificar.

Si este fin del mundo de la desinformación suena familiar, es porque lo es. “La afirmación sobre la tecnología [AI] es la misma afirmación que la gente hacía ayer sobre Internet”, dice Joseph Uscinski, politólogo de la Universidad de Miami que estudia las teorías de la conspiración. “Oh, Dios mío, las mentiras viajan más lejos y más rápido que nunca, y todos [creerán todo] (https://www.nytimes.com/2016/11/03/technology/how-the-internet-is-loosening-our -grip-on-the-truth.html) ven”. Pero [no encontró evidencia] (https://link.springer.com/article/10.1007/s11109-021-09734-6#Sec10) de que las creencias en las teorías de la conspiración han [aumentado junto con el uso de las redes sociales] (https: //onlinelibrary.wiley.com/doi/full/10.1111/pops.12568), o incluso durante la [pandemia de coronavirus](https://journals.plos.org/plosone/article?id=10.1371/journal.pone. 0270429); la investigación sobre narrativas comunes como las cámaras de eco también es inestable.

Las personas compran historias alternativas no porque las nuevas tecnologías las hagan más convincentes, dice Uscinski, sino por la misma razón por la que creen cualquier otra cosa: tal vez la conspiración confirma sus creencias existentes, coincide con su persuasión política o proviene de una fuente en la que confían. Hizo referencia al cambio climático como un ejemplo: las personas que creen en el calentamiento antropogénico, en su mayor parte, “no han investigado los datos por sí mismos. Todo lo que están haciendo es escuchar a sus fuentes confiables, que es exactamente lo que también están haciendo los que niegan el cambio climático. Es exactamente el mismo mecanismo; es solo que en este caso las élites republicanas están equivocadas”.

Por supuesto, las redes sociales cambiaron la forma en que las personas producen, difunden y consumen información. La IA generativa podría hacer lo mismo, pero con nuevas apuestas. “En el pasado, la gente probaba las cosas por intuición”, me dijo Horvitz. “Pero la idea de iterar más rápido, con más precisión quirúrgica en la manipulación de mentes, es algo nuevo. La fidelidad del contenido, la facilidad con la que se puede generar, la facilidad con la que se pueden publicar múltiples eventos en las líneas de tiempo”: todas son razones importantes para preocuparse. Ya, en el período previo a las elecciones de 2020, Donald Trump sembró dudas sobre el fraude electoral que reforzó la campaña “Stop the Steal” una vez que perdió. A medida que se acerca noviembre de 2024, los agentes políticos con ideas afines podrían usar IA para crear personajes y funcionarios electorales falsos, fabricar videos de manipulación de máquinas de votación y relleno de boletas, y escribir noticias falsas, todo lo cual se uniría en una historia sintética hermética. en el que se robaron las elecciones.

Las campañas de deepfake podrían llevarnos más lejos a "un mundo posepistémico, donde no sabes qué es real o falso", dijo Horvitz. Un empresario acusado de irregularidades podría llamar evidencia incriminatoria generada por IA; un político podría plantar asesinatos documentados pero completamente falsos de los rivales. O tal vez, de la misma manera que Truth Social y Rumble brindan [alternativas conservadoras] (https://www.theatlantic.com/technology/archive/2022/10/what-if-rumble-future-social-web/671926/) a Twitter y YouTube, una alternativa de extrema derecha a la búsqueda impulsada por IA, entrenada en una gran cantidad de conspiraciones e historias sintéticas, ascenderá en respuesta a los temores sobre Google, Bing y "[WokeGPT] (https://nymag.com /intelligencer/2023/02/fear-not-conservatives-chatgpt-wont-turn-your-kid-woke.html)” siendo demasiado progresista. "No hay nada en mi mente que impida que eso suceda en la capacidad de búsqueda", Renée DiResta, gerente de investigación del Observatorio de Internet de Stanford, quien recientemente escribió un artículo sobre modelos de lenguaje y desinformación, dice. "Va a ser visto como una fantástica oportunidad de mercado para alguien". RightWingGPT y una [IA conservadora-cristiana](https://news.gab.com/2023/01/christians-must-enter-the-ai -carrera armamentista/) ya están en discusión, y Elon Musk está supuestamente reclutando talento para construir un rival conservador para OpenAI.

Prepararse para tales campañas de deepfake, dijo Horvitz, requerirá una variedad de estrategias, incluidos los esfuerzos de alfabetización mediática, métodos de detección mejorados y regulación. Lo más prometedor podría ser crear un estándar para establecer la procedencia de cualquier elemento multimedia: un registro de dónde se tomó una foto y todas las formas en que se editó, adjunto al archivo como metadatos, como una cadena de custodia para evidencia forense, que Adobe, Microsoft y varias otras empresas están trabajando en. Pero la gente aún necesitaría entender y confiar en ese registro. “Tienes este momento tanto de proliferación de contenido como de confusión sobre cómo van a ser las cosas”, dice Rachel Kuo, profesora de estudios de medios en la Universidad de Illinois en Urbana-Champaign. La procedencia, la detección u otros métodos de desacreditación aún pueden depender en gran medida de personas que escuchan a expertos, ya sean periodistas, funcionarios gubernamentales o chatbots de IA, quienes les dicen qué es y qué no es legítimo. E incluso con esas cadenas de custodia de silicona, seguirán existiendo formas más simples de mentir (en las noticias por cable, en el Congreso, en forma impresa).

Enmarcar la tecnología como la fuerza impulsora detrás de la desinformación y la conspiración implica que la tecnología es una solución suficiente, o al menos necesaria. Pero enfatizar la IA podría ser un error. Si lo que más nos preocupa es “que alguien vaya a falsificar profundamente a Joe Biden, diciendo que es un pedófilo, entonces estamos [ignorando el motivo](https://misinforeview.hks.harvard.edu/article/ crítica-desinformación-estudios-historia-poder-y-política/) una información como esa sería resonante”, me dijo Alice Marwick, profesora de estudios de medios en la Universidad de Carolina del Norte en Chapel Hill. Y argumentar que las nuevas tecnologías, ya sean las redes sociales o la IA, son principal o únicamente responsables de torcer la verdad corre el riesgo de materializar el poder de los anuncios, algoritmos y fuentes de Big Tech para determinar nuestros pensamientos y sentimientos. Como [escribió] el reportero Joseph Bernstein (https://harpers.org/archive/2021/09/bad-news-selling-the-story-of-disinformation/): “Es un modelo de causa y efecto en que la información difundida por unas pocas corporaciones tiene el poder total de justificar las creencias y conductas del demos. En cierto modo, este mundo es una especie de consuelo. Fácil de explicar, fácil de modificar y fácil de vender”.

La historia más complicada podría lidiar con cómo los humanos, y tal vez las máquinas, no siempre son muy racionales; con lo que habría que hacer para que la escritura de la historia ya no sea una guerra. La historiadora Jill Lepore ha dicho que “la nota al pie salvó a Wikipedia”, lo que sugiere que el abastecimiento transparente ayudó a que el sitio web se volviera, o al menos pareciera serlo. , una fuente principal de información bastante confiable. Pero tal vez ahora la nota al pie, ese impulso e ímpetu por verificar, esté a punto de hundir internet, si no lo ha hecho ya.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd