Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2946

Loading...
“Esto será peligroso en las elecciones”: el próximo gran desafío de los medios políticos es navegar por los deepfakes de IA
vanityfair.com · 2023

En un episodio reciente de Pod Save America, el coanfitrión y ex miembro del personal de la administración de Obama Tommy Vietor [dijo](https://podcasts.apple.com/us/podcast/the-2024-dry-ron/id1192761536? i=1000602015326) se había topado con “un amigo muy importante durante el fin de semana”, antes de emitir un mensaje de audio exclusivo del presidente Joe Biden. “construir una economía de abajo hacia arriba y de la mitad hacia afuera”) y algunos chistes (“¿A Joe Biden le pareció divertido cuando Favreau dijo que mi evento en Carolina del Sur parecía una fiesta en una funeraria de descuento? No, Joe no lo hizo”). Todo parecía algo plausible: el propio Biden participó en el programa durante su campaña de 2020, y varios miembros de su administración , así como el expresidente Barack Obama, han pasado por aquí desde entonces. Además, se parecía mucho a Biden.

“Eso obviamente fue falso”, dijo Vietor después. “Pero va a ser esto peligroso en las próximas elecciones”. Se trata de audios de políticos generados por IA (falsos profundos) que, como señaló el presentador de Pod Save America Jon Favreau, ya está creando un nuevo desafío en los medios políticos. En vísperas de las elecciones a la alcaldía de Chicago, una cuenta de Twitter que se hacía pasar por una organización de noticias real, "Chicago Lakefront News", twitteó una voz en off de IA de candidato Paul Vallas hablando sobre la seguridad pública: un video falso que supuestamente obtuvo miles de visitas antes de que fuera derribados.

“En los últimos meses, esta es la primera vez que la IA generativa se ha vuelto tan buena, no lo suficientemente buena como para engañar a alguien, pero está llegando allí, ¿verdad? Puede ver cómo representaría una amenaza creíble”, dice Pranav Dixit, un reportero de tecnología de BuzzFeed News. Dixit apunta a deepfakes de políticos que se han vuelto virales, así como a los que presentan al podcaster Joe Rogan, quien en un clip generado por IA está debatiendo la película Ratatouille con el comentarista conservador Ben Shapiro—y la actriz Emma Watson, cuya voz fue simulada "leyendo" Mein Kampf. Como señaló John Hendrickson de The Atlantic en un [artículo] reciente( https://www.theatlantic.com/politics/archive/2023/03/politicians-ai-generated-voice-fake-clips/673270/) titulado “El próximo gran escándalo político podría ser falso”, “Aquí es justo donde estamos hoy, a 21 meses de las próximas elecciones federales. Va a mejorar, y será más aterrador, muy rápido”.

PolitiFact, una organización sin fines de lucro de verificación de hechos operada por el Instituto Poynter, [recientemente desacreditada] (https://www.politifact.com/factchecks/2023/feb/27/viral-image/sen-elizabeth-warren-didnt-say- republicanos-deberían/) un video alterado de la senadora Elizabeth Warren que utilizó una entrevista que hizo con MSNBC, en la que parecía que Warren estaba diciendo que a los republicanos no se les debería permitir votar. Los discursos falsos de Biden han sido un favorito en las redes sociales últimamente, con simulaciones de el presidente hablando de todo, desde hip hop hasta drogas y videojuegos. Pero algunos también están usando la tecnología para difundir información errónea, como un [deepfake](https://www.politifact.com /factchecks/2023/feb/06/instagram-posts/joe-biden-has-offered-support-transgender-american/) video de Biden criticando a las mujeres transgénero.

Ese deepfake fue un caso en el que "no es necesario ser muy avanzado en habilidades de video forense para decir que es falso", me dice la editora gerente de PolitiFact Katie Sanders. Pero la preocupación es más sobre "el potencial" que podría tener esta tecnología, dice Sanders. “Cuando se trata de un video de un evento público, es muy fácil explicar cómo sabemos que esto no es real, pero se vuelve mucho más difícil cuando se trata de cosas que son de persona a persona o que realmente dependen de la inteligencia. comunidad para saber si ocurrieron o no”.

Es fácil ver cómo esta tendencia podría convertirse en un verdadero desafío para las organizaciones de noticias, especialmente antes de una campaña presidencial, cuando los reporteros examinan regularmente las investigaciones de la oposición y reciben sugerencias de audio o videos grabados en secreto, generalmente a un ritmo rápido y en un entorno donde la desinformación puede proliferar fácilmente. Todavía no está claro cómo, o si, los principales medios planean cambiar su proceso de selección; varios medios de comunicación importantes, incluidos The Wall Street Journal y The Washington Post, se negaron a comentar cómo se están preparando para lidiar con el contenido político generado por IA en 2024. AI, para empezar, y mucho menos las ramificaciones políticas de lo que esto significa para la desinformación”, me dice Dixit, señalando que BuzzFeed, incluso con su larga historia de desacreditar la desinformación y las falsificaciones profundas, todavía está descubriendo los detalles de su estrategia de cobertura.

Los gigantes tecnológicos también tendrán que abordar el problema en algún momento. “Lo que es particularmente preocupante es que ninguna de las plataformas ha detallado una estrategia cuando se trata de IA generativa y contenido político”, dice Dixit, señalando [YouTube] (https://blog.youtube/inside-youtube/2023- carta de Neal/), TikTok y [Facebook](https:/ /ai.facebook.com/blog/generative-ai-text-to-video/), todos los cuales, señala Dixit, están dedicando tiempo y esfuerzo a crear su propia tecnología de IA generativa. Dixit sospecha que tales plataformas se verán obligadas a elaborar políticas para abordar el contenido político generado por IA a medida que se acerca el 2024, tal como lo hicieron en el pasado cuando se trataba de otras formas de información errónea. (BuzzFeed también se subió al tren de la IA: el CEO Jonah Peretti [dijo](https://www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create -some-of-its-content-11674752660) a principios de este año que la empresa usaría tecnología de IA para crear contenido).

En The Verge, el personal está "en guardia", me dice el editor Nilay Patel, mientras señala que [esta no es la primera vez](https://www.politico.com/story/2019/06 /25/media-2020-misinformation-1378849) las salas de redacción se han preparado para una avalancha de deepfakes. “Lo que nuestra sala de redacción se llevó de 2020 fue que las personas que intentan engañarte a menudo son bastante flojas. De hecho, la tecnología estaba allí para hacer deepfakes convincentes, pero era demasiado difícil de usar”, dice Patel. “Ahora, se ha vuelto un poco más fácil”. (En Pod Save America, Vietor señaló que pagó unos pocos dólares para hacer el audio de Biden generado por IA en un sitio llamado ElevenLabs, una startup de IA que The Verge ha [cubierto](https://www.theverge.com /2023/1/31/23579289/ai-voice-clone-deepfake-abuse-4chan-elevenlabs). Dada esa accesibilidad, "toda nuestra sala de redacción tiene que entender cómo examinar estas historias para leerlas más rápido". dice Patel. PolitiFact también está pensando en la velocidad y "se ha dotado de personal para responder a estas cosas con bastante rapidez", dice Sanders. "Somos plenamente conscientes de que el tiempo es precioso entre la difusión del contenido y la presentación de informes".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd