Incidentes Asociados
Los insultos groseros, los insultos maleducados y las difamaciones amenazantes han formado parte de la política estadounidense durante siglos. En esta nueva era de tácticas sin tapujos, las pullas se están volviendo más brutales, y en los anuncios, bueno, todo vale cuando se trata de destacarse en la competencia, incluso si los ataques son artificiales.
Un nuevo anuncio político en la contienda por el Senado de Georgia (https://www.cbsnews.com/tag/united-states-senate/) genera preocupación por el uso de inteligencia artificial en las elecciones, después de que la campaña del representante Mike Collins publicara un video deepfake que mostraba al senador Jon Ossoff burlándose de los agricultores y defendiendo el cierre del gobierno.
Ossoff nunca mencionó nada de eso.
El video, publicado la semana pasada en redes sociales, fue creado con inteligencia artificial y presenta un audio generado por computadora de Ossoff, quien afirma apoyar el cierre y afirma que "solo había visto una granja en Instagram". El anuncio incluye una pequeña advertencia en pantalla que dice "el video está generado por IA", para que no infrinja las leyes federales ni de Georgia.
El anuncio ha generado un amplio debate sobre el uso responsable de las tecnologías emergentes en la persuasión política y qué sucede cuando la línea entre la verdad y la invención comienza a difuminarse.
Campañas enfrentadas por el anuncio
El Partido Republicano de Georgia defendió el video como una sátira política legítima.
Josh McKoon, presidente del Partido Republicano de Georgia, afirmó que el partido "respalda el uso creativo de tecnología de vanguardia" y acusó a los demócratas de estar "aterrorizados por perder el poder".
"Este anuncio fue claramente etiquetado como una sátira generada por IA", declaró McKoon a CBS News Atlanta en un comunicado. Cualquier afirmación de que se trata de un deepfake con la intención de engañar es simplemente el último argumento desesperado.
La campaña de Ossoff discrepó, calificando el anuncio como un intento intencional de engañar a los votantes. El candidato en el cargo se ha comprometido a no utilizar esta tecnología durante este ciclo electoral.
En un comunicado, un portavoz de la campaña de Ossoff declaró: "La única razón por la que un candidato necesitaría usar un deepfake para inventar las palabras de su oponente es si no creyera que podría ganar por sí solo. Los georgianos no toleran a quienes les mienten".
La campaña de Collins afirmó que planea seguir utilizando herramientas de inteligencia artificial.
"A medida que la tecnología evoluciona y crea nuevas oportunidades para llegar a los votantes y comunicarse con ellos, la campaña de Collins estará a la vanguardia adoptando nuevas tácticas y estrategias que atraviesen la cobertura mediática tradicional y transmitan nuestro mensaje directamente a los votantes", declaró la campaña en un comunicado.
Los demócratas locales criticaron duramente la medida. Devon Cruz, asesor principal de comunicaciones del Partido Demócrata de Georgia, declaró: "En lugar de intentar engañar a los votantes con videos deepfakes, el congresista Mike Collins, poco honesto, debería explicar por qué apoya duplicar las primas del seguro médico de los georgianos".
El congresista Mike Collins es uno de los varios republicanos que compiten con el senador Jon Ossoff por su escaño en las elecciones intermedias del próximo año.
Los expertos advierten que al público le puede resultar difícil distinguir la realidad.
El Dr. Patrick Dicks, investigador y experto en inteligencia artificial y automatización, declaró a CBS News Atlanta que los deepfakes ya no son una amenaza futurista; ya están aquí, y las campañas ya los están implementando.
"Lo que estamos viendo ahora, ya les dije a todos que volvería en 2017", afirmó Dicks. "Se puede crear el audio de un oponente que suena exactamente igual. La gente escucha algo una vez y asume que es cierto".
Dicks explicó que el peligro es simple: los deepfakes pueden engañar a los votantes haciéndoles creer que un candidato dijo o hizo algo que nunca ocurrió. "Se puede influir en los votantes con algo que no es real", dijo. "La gente puede votar a favor o en contra de alguien basándose en un video completamente inventado".
Y como la mayoría de los medios generados por IA no dejan un origen rastreable, explicó, cualquiera puede crear y compartir un deepfake, y las campañas podrían ni siquiera saber dónde se originó.
Las regulaciones sobre deepfakes siguen siendo limitadas en todo el país.
Los legisladores de Georgia han tomado medidas para prohibir los materiales de campaña engañosos generados por IA. Un proyecto de ley, comúnmente conocido como SB9, avanzó en 2025 y tipificaría como delito publicar a sabiendas ciertos materiales de campaña generados por IA sin la divulgación obligatoria dentro de los 90 días previos a una elección. La medida conlleva sanciones que pueden aumentar según la intención y la reincidencia.
Sin embargo, Georgia aún se encuentra en la primera ola de estados que intentan regular esta tecnología. En 2019, varios estados comenzaron a aprobar leyes para abordar los deepfakes políticos engañosos, específicamente relacionados con las elecciones.
Según la Conferencia Nacional de Legislaturas Estatales, en 2025, al menos la mitad de los estados de EE. UU. promulgaron leyes que abordan los deepfakes, especialmente en elecciones, las imágenes sexuales no consensuadas y la suplantación de identidad. Los 50 estados, el Distrito de Columbia, Puerto Rico y las Islas Vírgenes consideraron proyectos de ley relacionados con la IA el año pasado. Treinta y ocho estados implementaron alrededor de 100 medidas de IA, y se espera que se implementen más en 2026.
Dicks afirmó que el rápido auge de la IA generativa implica que los estados necesitarán normas mucho más estrictas, incluyendo marcas de agua permanentes y divulgaciones claras, para evitar una confusión generalizada.
"Si una campaña usa IA, debería informar a los votantes desde el principio", afirmó. "Actualmente, la gente no sabe qué es real. Y cuando está confundida, puede que ni siquiera vote".
Una señal de lo que se avecina
El anuncio de campaña de Collins es ilustrativo: sin normas claras y aplicables, más campañas y actores externos podrían usar medios generados por IA para influir en los votantes.
"Con el tiempo, todos los candidatos serán víctimas de esto", afirmó el Dr. Dicks. Sin regulaciones estrictas, nadie está a salvo de ser suplantado.
Una encuesta de 2023 del Centro de Investigación de Asuntos Públicos AP-NORC y la Escuela de Políticas Públicas Harris de la Universidad de Chicago reveló que casi seis de cada diez adultos (58%) creen que las herramientas de IA, que pueden microseleccionar votantes, producir contenido persuasivo en masa y generar imágenes y videos falsos realistas en segundos, aumentarían la difusión de información falsa y engañosa durante las elecciones presidenciales. En comparación, el 6% afirmó que la IA reducirá la desinformación, mientras que cerca de un tercio afirmó que su impacto será mínimo.
El contenido político generado por IA estuvo ampliamente disponible en línea antes de las elecciones de 2024. El presidente Donald Trump compartió videos manipulados por IA con sus seguidores, incluyendo un clip distorsionado del presentador de CNN Anderson Cooper en Truth Social. El Comité Nacional Republicano publicó un anuncio distorsionado digitalmente que representaba al expresidente Joe Biden con las palabras: "¿Qué pasaría si el presidente más débil que hemos tenido fuera reelegido?", poco después de que Biden anunciara su candidatura.
Otros ejemplos incluyen videos manipulados de Biden que parecen atacar a personas transgénero, imágenes generadas por IA que muestran falsamente a niños aprendiendo satanismo en bibliotecas e imágenes manipuladas de la foto policial de Trump antes de su publicación oficial. Algunos creadores reconocieron el origen falso de su contenido de IA, pero su alcance viral subraya el desafío que enfrentan los votantes.
La carrera al Senado de Georgia de 2026 demuestra la rapidez con la que la inteligencia artificial podría cambiar las reglas de las campañas. Los votantes pronto podrían verse obligados a navegar por un campo minado digital de imágenes y voces manipuladas, decidiendo no solo a quién apoyar, sino también en qué creer.