Incidentes Asociados

LONDRES — El Reino Unido quiere liderar el mundo en seguridad de la IA, pero en casa está teniendo dificultades con su amenaza más urgente.
Los temores sobre la proliferación de medios generados por IA, conocidos como deepfakes, se intensificaron este fin de semana cuando un clip de audio que parecía mostrar al líder de la oposición del Reino Unido, Keir Starmer, insultando a sus empleados se volvió viral.
Los parlamentarios de todo el espectro político británico advirtieron rápidamente el domingo que el clip era falso. Pero el lunes por la tarde todavía estaba acumulando visitas en X, antes conocido como Twitter, y se acercaba a casi 1,5 millones de visitas.
Una encuesta de YouGov realizada en mayo a más de 100 parlamentarios del Reino Unido mostró que el aumento del contenido generado por IA era su principal preocupación en torno a las aplicaciones de IA. Es fácil ver por qué.
El ministro laborista de Digital Shadow, Alex Davies-Jones, dijo en un evento paralelo en la conferencia del partido en Liverpool el lunes que las grabaciones de Hansard de los procedimientos parlamentarios ofrecían a los malos actores una biblioteca "a pedido" de parlamentarios que decían "casi cualquier palabra", algo que ayudará enormemente a la Entrenamiento de modelos de inteligencia artificial para crear falsificaciones de políticos aún más realistas antes de las elecciones de 2024.
"El desafío es explicar a la gente que existe un orden de riesgos completamente diferente con la IA generativa", explicó Andrew Dudfield, jefe de IA del grupo de verificación de datos Full Fact.
Pero a pesar de años de advertencias sobre la desinformación electoral, ningún regulador es responsable de detenerla y la respuesta del gobierno al contenido falso, a través del Proyecto de Ley de Seguridad en Línea, apenas comienza a dar resultados. abordar el problema, advierten los expertos.
Publicar desinformación para socavar a los oponentes políticos no es nada nuevo, pero lo que mantiene despiertos a los expertos es la facilidad y la escala con la que el salto en las herramientas de inteligencia artificial generativa permite que se difunda material falso.
Algunos esperaban que el proyecto de ley de seguridad en línea pudiera usarse para combatir el aumento de los deepfakes antes de las elecciones del Reino Unido el próximo año.
Pero Dudfield, de Full Fact, describe la legislación ya finalizada como una “oportunidad perdida”. "Es difícil ver cómo aborda de manera significativa cualquier parte de la desinformación", dijo.
El proyecto de ley faculta al regulador Ofcom para garantizar que las plataformas mantengan a los usuarios, especialmente a los niños, a salvo del "contenido nocivo", pero cuando se trata de desinformación, las plataformas establecen y siguen sus propias políticas. Todo lo que Ofcom puede hacer es comprobar que los están siguiendo.
Y los términos de servicio de las plataformas no detienen la propagación de la desinformación. Las políticas establecen que los usuarios “no pueden compartir medios sintéticos, manipulados o fuera de contexto”, pero eso tiene No hizo nada para detener el clip de Starmer.
Un portavoz de Ofcom dijo que establecería un "comité asesor" sobre el problema como parte del proyecto de ley de seguridad en línea y que también está realizando investigaciones sobre deepfakes y marcas de agua, pero agregó que esto se encontraba en una etapa temprana.
Esto está muy lejos de [las recomendaciones de un comité de la Cámara de los Lores] (https://committees.parliament.uk/committee/407/democracy-and-digital-technologies-committee/news/115316/democracy-under-threat- from-pandemic-of-misinformation-online-say-lords-committee/) en 2020.
Los legisladores del comité de democracia y tecnologías digitales querían disposiciones en el proyecto de ley de seguridad en línea para obligar a las plataformas a tomar medidas contra el contenido que socavaba la democracia. También recomendó a los reguladores establecer un comité poderoso para examinar la publicidad política.
El comité de los Lores estaba presidido por su par laborista David Puttnam, quien ahora está jubilado, pero todavía está activo en esta área a través de un grupo llamado Reform Political Advertising (RPA).
"Estoy tan enojado. Es muy difícil para mí tener esta conversación”, dijo a POLITICO. "Nos aproximamos a unas elecciones generales dentro de un año, sin que ningún partido levante la mano y diga que esto tiene que parar".
Dijo que temía que “ocurriera algo horrendo” si los partidos no se comprometen a abordar la desinformación.
En la Cumbre de Seguridad de la IA, el impacto en las elecciones será uno de varios temas sobre la mesa | Ian Forsyth/Getty Images
Rae Burdon, de Reform Political Advertising (RPA), advirtió: “Ningún departamento gubernamental puede arreglar los deepfakes. Lo que pueden arreglar es una regulación que tenga el efecto de limitar y sancionar su uso”.
Al Reino Unido no le faltan reguladores, pero ninguno con el poder de detener la desinformación electoral. Los anuncios políticos están exentos de la atención de la Agencia de Normas de Publicidad (ASA), mientras que la Comisión Electoral sólo se ocupa del financiamiento de las campañas.
Un posible grupo donde los reguladores podrían reunirse para abordar la desinformación generada por la IA es el Foro de Cooperación en Regulación Digital (DRCF). Pero se trata de un grupo voluntario de reguladores sin poderes legales. Un portavoz dijo que no estaban haciendo ningún trabajo sobre la desinformación generada por IA y se negó a ser entrevistado.
El ministro responsable de luchar contra la desinformación es Paul Scully. En una [carta al parlamentario laborista] (https://twitter.com/darrenpjones/status/1669339801865310209) de Darren Jones, quien expresó sus temores sobre la desinformación generada por IA en las elecciones, Scully señaló la Ley Electoral, que entra en vigor. en noviembre, para “fortalecer la integridad de las elecciones del Reino Unido”.
Otorga nuevos poderes a la Comisión Electoral para hacer cumplir [“huellas digitales”](https://www.electoralcommission.org.uk/who-we-are-and-what-we-do/our-views-and-research /elections-act/introtaining-digital-imprints) en material de campaña que informará a los espectadores quién pagó y produjo un anuncio en línea.
Louise Edwards, directora de regulación y transformación digital de la Comisión, dijo que la ley era un “gran paso adelante”, pero faltaban algunas recomendaciones clave. Señaló que todavía no había forma de clasificar el gasto digital para que el público pudiera ver cómo los partidos políticos habían gastado sus finanzas de campaña.
Rae Burdon, de Reform Political Advertising (RPA), advirtió: “Ningún departamento gubernamental puede arreglar los deepfakes. Lo que pueden arreglar es una regulación que tenga el efecto de limitar y sancionar su uso”. | Olivier Douliery/AFP vía Getty Images
Es irrelevante para clips falsos provenientes de cuentas no afiliadas a partidos políticos, como el clip de audio de Starmer.
Scully también destacó el trabajo de una unidad gubernamental llamada Unidad Contra la Desinformación (CDU) para abordar la desinformación en línea. Pero el grupo ha sido golpeado por la prensa negativa y los ministros han tratado de distanciarse de él.
La CDU responde a “períodos de riesgo agudo de desinformación”, dijo Scully, junto con otros dos grupos gubernamentales llamados Election Cell y [Defending Democracy Taskforce] (https://www.gov.uk/government/news/ministerial-taskforce- se reúne para abordar las amenazas-estatales-a-la-democracia-del-Reino Unido). Pero estos esfuerzos se centran en los actores internacionales que socavan las elecciones del Reino Unido, más que en la desinformación interna.
En noviembre, el Reino Unido organizará una Cumbre de Seguridad de la IA para discutir los riesgos de los modelos más avanzados, conocidos como Frontier AI. El impacto en las elecciones es uno de varios temas sobre la mesa.
Un portavoz del gobierno dijo: “Reconocemos la amenaza que puede representar el contenido manipulado digitalmente y tomamos el problema muy en serio. Nuestra prioridad es siempre proteger nuestras elecciones y tomar medidas para responder a cualquier amenaza a los procesos e instituciones democráticas del Reino Unido”.
Hagan lo que hagan los gobiernos, gran parte de la solución está en las empresas tecnológicas.
En noviembre, el Reino Unido organizará una Cumbre de Seguridad de la IA para discutir los riesgos de los modelos más avanzados, conocidos como Frontier AI. El impacto en las elecciones es uno de los varios temas sobre la mesa | Patrick Lux/Getty Images
Una esperanza, citada por esas empresas, es la creación de marcas de agua, que colocarían una marca en el contenido para mostrar que ha sido generado por IA. En la Casa Blanca en julio, siete de las mayores empresas de IA se comprometieron a “desarrollar mecanismos técnicos sólidos para garantizar que los usuarios sepan cuándo el contenido se genera mediante IA, como un sistema de marcas de agua”.
Dudfield dijo que era un paso bienvenido, pero señaló que aún quedaba mucho trabajo por hacer, particularmente en las marcas de agua. "La tecnología subyacente existe", explicó. “¿Pero quién etiqueta el contenido? ¿Es la plataforma de la persona que la creó?
Determinar cómo las Big Tech implementarán los compromisos de la Casa Blanca es uno de los temas centrales de la Cumbre de Seguridad de la IA del Reino Unido.
Google se encuentra entre las empresas que están descubriendo cómo poner marcas de agua en el contenido y lanzó una prueba de la [tecnología a finales de agosto] (https://www.bbc.co.uk/news/technology-66618852). Las plataformas también pueden recurrir a los equipos y políticas de desinformación existentes, que prohíben el contenido falso generado por IA.
Otras soluciones industriales sugeridas van desde las más modestas hasta las más extremas. Sam Altman de OpenAI, quien tuiteó sobre sus temores sobre las elecciones en agosto, pidió “crear conciencia”. Mientras tanto, el fundador de Inflection AI, Mustafa Suleyman, fue mucho más directo y escribió en LinkedIn que se debería prohibir a la IA “cualquier tipo de campaña electoral”.
Pero Puttnam no estuvo de acuerdo y argumentó que deberían utilizarse para aumentar la confianza. “Las herramientas nos facilitan identificar cuándo se dice una mentira”, afirmó. "La pregunta que deben hacerse las partes es: ¿van a dedicar tiempo, esfuerzo y energía a cómo utilizarlo para desinformar o cómo detener la desinformación?".