Problema 3102
China invade Taiwán y los migrantes cruzan la frontera entre Estados Unidos y México en un video que muestra las consecuencias de la reelección del presidente Biden. En una serie de imágenes, el expresidente Donald Trump es perseguido a pie y detenido por agentes de policía uniformados. Otra foto muestra el Pentágono envuelto en llamas tras una explosión.
¿El denominador común entre estas escenas? Todos son falsos. La inteligencia artificial en rápida evolución está facilitando la generación de videos e imágenes sofisticados que pueden engañar a los espectadores y difundir información errónea, lo que representa una gran amenaza a las campañas políticas a medida que se inician las contiendas de 2024.
Las imágenes falsas no son nuevas en las campañas. Durante la carrera presidencial de 2020, Trump compartió una animación falsa de Biden sacando la lengua repetidamente con el título "Sloppy Joe". Un video ralentizado que falsamente hizo que la entonces presidenta de la Cámara Nancy Pelosi pareciera estar dañada acumuló millones de visitas en 2019.
Lo que ha cambiado es que los medios sintéticos se han vuelto mucho más fáciles de crear con el lanzamiento de los llamados sistemas generativos de inteligencia artificial que pueden transformar rápidamente entradas simples en videos, fotos, música y texto de aspecto sofisticado. Eso ha dejado a los funcionarios de la campaña preparándose para que 2024 marque el comienzo de un nivel de creación y proliferación digital diferente a cualquier temporada electoral anterior ahora que millones de usuarios tienen acceso a tales herramientas.
"No va a crear reinos completamente nuevos o tipos de desinformación que nunca antes habíamos imaginado, pero hará que sea más fácil, más rápido y más barato de producir", dijo Teddy Goff, director digital de la agencia del expresidente Barack Obama. campaña electoral. "Y las consecuencias de eso van a ser bastante profundas".
El Comité Nacional Republicano estuvo detrás del video que retrata a un Estados Unidos distópico en caso de que Biden obtenga un segundo mandato. Trump publicó un video manipulado del presentador de CNN, Anderson Cooper, reaccionando a la aparición del expresidente en un ayuntamiento organizado por la red.
“Ese fue el presidente Donald J. Trump arrancándonos un nuevo a------ aquí en el ayuntamiento presidencial en vivo de CNN”, dice Cooper en el video manipulado.
Trump también compartió una parodia del gobernador de Florida [Ron DeSantis] (https://www.wsj.com/topics/person/ron-desantis) lleno de errores [lanzamiento de la campaña presidencial en Twitter Spaces] (https:/ /www.wsj.com/articles/ron-desantis-trump-successor-president-3e9df9d6?mod=article_inline). El video falso publicado por Trump presenta a DeSantis, el director ejecutivo de Twitter [Elon Musk] (https://www.wsj.com/topics/person/elon-musk), el donante demócrata George Soros, el exvicepresidente Dick Cheney, Adolf Hitler y el diablo y parece usar clones de voz generados por IA, incluso de Trump, quien interviene para decir: "Detente, Elon, el verdadero presidente va a decir algunas palabras".
Los portavoces de la campaña de Trump y el RNC no respondieron a las solicitudes de comentarios.
Las nuevas herramientas de voz y video de IA pueden verse y sonar como usted. Pero, ¿pueden engañar a su familia, o al banco? Joanna Stern de WSJ se reemplazó con su gemela AI por el día para averiguarlo. Foto ilustrativa: Elena Scotti
La velocidad a la que la IA puede generar contenido se considera un cambio de juego. En lugar de tener que depender de consultores y expertos digitales, la IA es un medio mucho más económico a través del cual las campañas pueden responder a eventos en tiempo real.
Consultores demócratas y republicanos afirman que también están probando la IA y el chatbot viral ChatGPT como herramientas de organización digital que puede ayudar a redactar discursos, correos electrónicos y textos de recaudación de fondos y crear archivos de votantes. Aunque las campañas aún necesitarán revisar y editar el contenido generado por IA, la tecnología podría ayudar a reducir significativamente la cantidad de tiempo dedicado al contacto diario con los votantes.
Los vigilantes en línea advierten que la tecnología podría usarse para fines más nefastos, incluida la difusión de información falsa sobre los horarios y lugares de votación, los plazos de registro de votantes o cómo las personas pueden emitir sus votos.
En la víspera de la ronda inicial de las elecciones a la alcaldía de Chicago en febrero, el personal del candidato Paul Vallas notó un video que circulaba en Twitter. Mostraba su foto y reproducía una voz que sonaba como la suya, que parecía condonar la brutalidad policial, dijo Brian Towne, director de campaña de Vallas.
El video no circuló ampliamente y probablemente no afect ó la votación, dijo Towne. Vallas terminó primero en la ronda de febrero pero perdió una segunda vuelta. Sin embargo, Towne describió el episodio como un precedente peligroso. Dijo que no sabía quién creó el video y que la campaña determinó que probablemente se creó con IA.
"Para un votante informado, el video eventualmente parece inventado", dijo Towne. "Pero también hay muchos votantes desinformados o desconectados que pueden ver solo un fragmento del video y de repente se vuelven más propensos a votar en contra de un candidato".
Las plataformas de redes sociales a menudo tienen políticas que establecen que eliminarán el contenido engañoso y manipulado. La aplicación de esas políticas puede ser inconsistente o lenta, y las plataformas a veces hacen excepciones para publicaciones falsas de candidatos en nombre de permitir el libre debate político.
El auge de los sistemas de IA generativa ha llevado a los líderes tecnológicos a pedir un nuevo sistema de etiquetado, que permita a los usuarios ver si un contenido es generado por IA. El video del RNC sobre la reelección de Biden vino con un descargo de responsabilidad en un pequeño texto blanco que decía "construido completamente con imágenes de IA".
"Es bastante obvio que los usuarios no deberían estar sujetos a desinformación aleatoria sin tener algún conocimiento de quién lo hizo y de dónde provino", dijo Eric Schmidt, exdirector ejecutivo de Google y director de una comisión sobre inteligencia artificial designada por el Congreso.
Google y Microsoft, patrocinador de [OpenAI, creador de ChatGPT](https://www.wsj.com/articles/chatgpt-sam- altman-artificial-intelligence-openai-b0e1c8c9?mod=article_inline), ambos han dicho que están lanzando herramientas que marcarán el contenido generado por IA con datos sobre su origen.
En un paso preliminar hacia la regulación, la Casa Blanca solicitó recientemente la opinión pública sobre temas de IA, incluida la forma de abordar los desafíos del proceso electoral.
Los defensores dicen que hay situaciones en las que las leyes existentes podrían aplicarse al uso de contenido generado por IA en las elecciones. La ley electoral federal prohíbe que los candidatos se hagan pasar por otros candidatos. El grupo de defensa Public Citizen solicitó recientemente a la Comisión Federal de Elecciones, que hace cumplir las leyes de campaña, que emita una guía que diga que la disposición se aplicaría si un candidato usara una representación generada por IA de un candidato en competencia en un anuncio de campaña. La agencia no ha respondido a la petición.
La FEC no tiene autoridad para vigilar a los usuarios promedio de las redes sociales que podrían publicar un video inventado que se vuelve viral.
Robert Weissman, presidente de Public Citizen, dijo que los partidos políticos y los medios de comunicación deberían declarar el uso de medios fraudulentos como "fuera de los límites". Añadió: "En realidad no estamos preparados para el desafío".
Escriba a Sabrina Siddiqui a sabrina.siddiqui@wsj.com y a Ryan Tracy a ryan.tracy@wsj.com