Incidentes Asociados

El contenido engañoso generado por IA podría influir en los votantes, dicen los expertos en IA. Las elecciones presidenciales del domingo en Turquía son la primera gran votación para enfrentar este desafío.
Los internautas turcos se sorprendieron al descubrir que Kemal Kilicdaroglu, el principal rival del presidente Recep Tayyip Erdogan en las elecciones del domingo, hablaba un inglés perfecto en un video publicado en línea hace dos semanas.
“La niña de mis ojos también habla inglés. Te lo prometo abuelo, te vamos a hacer presidente”, comentó un usuario de Twitter, compartiendo el video del candidato de 74 años. Pero dos días después, el sitio web turco independiente de verificación de datos Teyit reveló [el video había sido fabricado](https://teyit.org/analiz/kemal-kilicdaroglunun-ingilizce-konustugu-videonun-gercek-oldugu- iddiasi).
Según Teyit, que significa confirmación en turco, el video generado por IA no tenía la intención de engañar a nadie y se publicó inicialmente con un descargo de responsabilidad.
“Experimento constantemente con IA para aprender sobre nuevas funcionalidades. Creé la voz de Kemal Kilicdaroglu en AI y la usé para una versión en inglés de su discurso de candidatura”, dijo @ytc06, quien fue el primer usuario de Twitter en compartir el video con sus 11 seguidores antes de que se volviera viral.
El reciente auge en el acceso a las herramientas de IA está alimentando este tipo de situaciones, según el especialista en falsificaciones profundas Henry Ajder.
“Cuando algo diseñado para ser satírico se saca de contexto, puede confundirse con real, especialmente si estás hablando con una audiencia que tiene ciertos prejuicios”, dijo a Euronews Next.
“Las personas famosas y los políticos corren un riesgo particular porque hablan mucho a la cámara, se quedan quietos y miran directamente hacia la lente. Esa es una forma de video más fácil de manipular que si se están moviendo y su perfil está cambiando”, explicó.
Inundando las redes sociales con deepfakes
El mismo día que se publicó el video manipulado de él hablando inglés, lo que en su mayoría le valió seguidores, Kilicdaroglu advirtió a sus seguidores en las redes sociales sobre una posible interferencia electoral.
“Jugar a Cambridge Analytica está más allá de su capacidad, muchachos”, les dijo a los funcionarios del gobierno en Twitter, refiriéndose al uso no autorizado de datos personales y haciendo campaña en las redes sociales para influir en las elecciones presidenciales de EE. UU. de 2016.
Las próximas votaciones presidenciales y parlamentarias de Turquía podrían poner fin al gobierno de 20 años de Erdogan y [alterar el panorama político del país](https://www.euronews.com/2023/04/11/everything-you-need-to -saber-sobre-las-elecciones-turcas). También son una de las primeras elecciones importantes que se ocupan de una IA tan avanzada.
“Si puede inundar un discurso sofisticado y que suena muy humano en grandes redes y cuentas no auténticas con una narrativa, eso obviamente podría desempeñar un papel en el control de una esfera”, dijo Ajder.
Eso es exactamente lo que los usuarios de Internet han estado tratando de lograr en Turquía. En los últimos meses, Teyit se ha enfrentado a una ola de contenido manipulado y ha desacreditado más de 150 afirmaciones controvertidas relacionadas con las elecciones, con ocho solo en 10 de mayo. Muchos de estos fueron deepfakes diseñados para engañar a los lectores al acusar a los candidatos (en su mayoría de la oposición) de terrorismo e incivilidad.
“Es fácil reconocer que ese tipo de contenido es falso, pero no lo es para las personas que ya no piensan críticamente”, dijo a Euronews Next el experto turco en inteligencia artificial Cem Say.
La mayoría de los turcos están polarizados entre Erdogan y Kilicdaroglu, y las encuestas actualmente predicen una [carrera extremadamente reñida](https://www.euronews.com/2023/03/14/turkey-opinion-poll-tracker-erdogan- vs-kilicdaroglu) entre los dos candidatos.
El Partido de la Justicia y el Desarrollo (AKP) del actual presidente ha atacado repetidamente a sus competidores, más recientemente en su mayor mitin en Estambul, el 7 de mayo, cuando se reprodujo en pantallas gigantes una edición no revelada del video de la campaña de Kilicdaroglu.
La versión deepfake había agregado a Murat Karayılan, un líder del Partido de los Trabajadores de Kurdistán (PKK), que está catalogado por varios otros países y la UE como una organización terrorista, aplaudiendo la canción de la campaña de la oposición, mientras que la letra dice “vamos, vamos todos a votar” gritaron desde los altavoces.
En un video compartido en las redes sociales, Erdogan preguntó a aproximadamente 1,7 millones de simpatizantes que asistieron a su mitin: "¿Mis compatriotas nacionales y locales votarían por estas personas?" antes de agregar: “¡Mira esto, es muy importante!”.
Otro candidato presidencial, Muharrem Ince, se retiró de la carrera el jueves después de la publicación de un presunto video sexual que dijo que era un deepfake.
El fundador y líder del Partido de la Patria, de centro izquierda, laico y nacionalista, que fue el principal rival de Erdogan en las elecciones de 2018, dijo que había sufrido un “asesinato de carácter” durante la campaña de este año.
“Lo que he visto en los últimos 45 días, no lo había visto en los últimos 45 años”, dijo Ince en su [discurso de renuncia](https://twitter.com/vekilince/status/ 1656623190180003841?s=20).
“Videos falsos, fotos falsas… pusieron mi cara en un video tomado de un sitio web de pornografía israelí”, agregó, culpando a los periodistas y fiscales del país por no protegerlo de la “furia de la calumnia”.
Expertos como Say temen tácticas de última hora aún más agresivas. “Los deepfakes podrían usarse el día de las elecciones con la motivación de disuadir a las personas de ir a las urnas o influir en su decisión”, dijo, y agregó que esto “no dejaría tiempo para la verificación”.
¿Qué se puede hacer?
Dado que los avances en inteligencia artificial no muestran signos de desaceleración, los expertos en desacreditación están en una carrera contra los generadores de contenido de IA. Al igual que en Turquía, las falsificaciones profundas creadas por fuentes oficiales han comenzado a aparecer en la escena política de los Estados Unidos.
Después de que el presidente Joe Biden anunciara que se postularía para la reelección, el Comité Nacional Republicano opuesto publicó un video diseñado por IA que muestra un futuro distópico bajo un segundo mandato de Biden. Los expertos ya advierten que los deepfakes serán uno [de los principales desafíos de las elecciones presidenciales de EE. UU. de 2024](https://www.axios.com/2023/04/29/how-ai-already- Changing-2024-election? utm_source=newsletter&utm_medium=email&utm_campaign=newsletter_axioslogin&stream=top).
“El lado de la detección es un poco deprimente en este momento”, dijo Ajder. Según él, las herramientas que certifican la procedencia del contenido son prometedoras, pero corren el riesgo de crear una jerarquía de medios: si el contenido real no está certificado, “la gente puede descartarlo como falso cuando sea conveniente”, explicó. Su recomendación es ceñirse a las fuentes de los medios que son bien conocidas y pueden verificar los hechos.
Eso es muy complicado en Turquía, donde 90 por ciento de los medios nacionales están bajo el control del gobierno, según el grupo de libertad de prensa Reporters. Sin Fronteras. Esto, combinado con [un octubre de 2022](https://www.euronews.com/my-europe/2022/10/04/opposition-ngos-slam-turkeys-draft-law-on-criminalising- disinformation#:~:text=Under%20the%20law%2C%20citizens%20can,account%20details%20with%20the%20authorities.) ley que tiene como objetivo limitar la "desinformación", lo que significa que muy pocos medios informan sobre deepfakes en Turquía.
Anadolu, la agencia de noticias del gobierno turco, fue acusada de ocultar los resultados de las elecciones a la alcaldía de Estambul de 2019 ganó la oposición, y este mes, [un informe de la misión de observación electoral de la OSCE](https://www.osce.org/files/f/documents/1/3/542502_0.pdf#page =14) expresó su preocupación por la imparcialidad del organismo de regulación de medios del país, RTÜK.
Apenas unos días antes de que la nación se dirija a las urnas, la serie postelectoral del medio de comunicación independiente turco 140journos es quizás la más poderosa para imaginar lo que podría suceder a continuación, aquí nuevamente con la ayuda de la inteligencia artificial. Publicado en marzo utilizando el generador de imágenes de IA Midjourney y el generador de texto de IA ChatGPT, ofrece dos narrativas para el futuro de Turquía.
La primera historia muestra a un Erdogan derrotado y recién retirado. “Al principio fue un poco difícil. Sin embargo, con el tiempo, aproveché para pasar más tiempo con mi familia, estar más cerca de la naturaleza y dedicar más tiempo a mí mismo”, dice un bot que se hace pasar por el político, mientras que las fotos de él tomando el té en bata ilustran la publicación. .
En la otra narrativa, Erdogan nunca ha renunciado al poder y Turquía se ha convertido en un imperio al estilo de Star Wars con el objetivo de “construir la paz universal”.
A la pregunta "¿Cuáles fueron los mayores desafíos para lograr este éxito?", la IA que se hace pasar por Erdogan responde: "Uno de nuestros mayores desafíos fue mantenernos al día con el nuevo orden del mundo y el universo, y seguir de cerca los desarrollos tecnológicos". y adaptarse constantemente a ellos”, un guiño al desafío que todos los políticos enfrentan ahora con la IA.