Problema 6896

Mientras miles de manifestantes han salido a las calles del condado de Los Ángeles para protestar contra las redadas del Servicio de Inmigración y Control de Aduanas (ICE), la desinformación ha proliferado en línea.
Las protestas y la movilización de la Guardia Nacional y la Infantería de Marina por parte del presidente Donald Trump en respuesta son uno de los primeros acontecimientos noticiosos importantes y polémicos en una nueva era en la que las herramientas de inteligencia artificial se han integrado en la vida en línea. Y como las noticias han generado intensos debates y diálogos en línea, estas herramientas han desempeñado un papel fundamental en el discurso. Los usuarios de redes sociales han utilizado herramientas de IA para crear deepfakes y difundir desinformación, pero también para verificar datos y desmentir afirmaciones falsas.
Así se ha utilizado la IA durante las protestas de Los Ángeles.
Deepfakes
Imágenes provocativas y auténticas de las protestas han captado la atención mundial esta semana, incluyendo a un manifestante alzando con una bandera mexicana y a un periodista al que un policía le disparó en la pierna con una bala de goma. Al mismo tiempo, también han circulado varios videos falsos generados por IA.
En los últimos dos años, las herramientas para crear estos videos han mejorado rápidamente, permitiendo a los usuarios crear deepfakes convincentes en cuestión de minutos. A principios de este mes, por ejemplo, TIME utilizó la nueva herramienta Veo 3 de Google para demostrar cómo se puede usar para crear videos engañosos o provocadores sobre noticias.
Entre los videos que se han difundido durante la última semana se encuentra uno de un soldado de la Guardia Nacional llamado "Bob", quien se grabó "de servicio" en Los Ángeles preparándose para gasear a los manifestantes. Ese video fue visto más de un millón de veces, según France 24, pero parece haber sido eliminado de TikTok. Miles de personas dejaron comentarios en el video, agradeciendo a "Bob" por su servicio, sin darse cuenta de que "Bob" no existía.
Muchas otras imágenes engañosas han circulado no gracias a la IA, sino a iniciativas mucho más sencillas. El senador republicano Ted Cruz de Texas, por ejemplo, republicado un video en X originalmente compartido por el actor conservador James Woods que apareció Para mostrar una protesta violenta con autos en llamas, pero en realidad eran imágenes de 2020. Otra publicación viral mostraba un palé de ladrillos, que, según el usuario, serían utilizados por militantes demócratas. Sin embargo, la foto se rastreó hasta un proveedor de construcción malasio.
Verificación de datos
En ambos casos, los usuarios de X respondieron a las publicaciones originales preguntando a Grok, la IA de Elon Musk, si las afirmaciones eran ciertas. Grok se ha convertido en una fuente importante de verificación de datos durante las protestas: Muchos usuarios de X han confiado en él y en otros modelos de IA, a veces más que en periodistas profesionales, para verificar afirmaciones relacionadas con las protestas de Los Ángeles, incluyendo, por ejemplo, la magnitud de los daños colaterales causados por las manifestaciones.
Grok desmintió tanto la publicación de Cruz como la publicación de los ladrillos. En respuesta al senador de Texas, la IA escribió: "Es probable que la grabación se haya tomado el 30 de mayo de 2020... Si bien el video muestra violencia, muchas protestas fueron pacíficas, y usar grabaciones antiguas hoy en día puede ser engañoso". En respuesta a la foto de los ladrillos, escribió: “La foto de los ladrillos proviene de una empresa malaya de materiales de construcción, como lo confirman notas de la comunidad y fuentes de verificación de datos como The Guardian y PolitiFact. Se usó indebidamente para afirmar falsamente que organizaciones financiadas por Soros colocaron ladrillos cerca de las instalaciones del Servicio de Inmigración y Control de Aduanas de Estados Unidos (ICE) para protestar”.
Pero Grok y otras herramientas de IA se han equivocado, lo que las convierte en una fuente de noticias poco óptima. Grok insinuó falsamente que una foto compartida por Newsom que mostraba a soldados de la Guardia Nacional durmiendo en el suelo de Los Ángeles era reciclada de Afganistán en 2021. ChatGPT afirmó lo mismo. Estas acusaciones fueron compartidas por prominentes influencers de derecha como Laura Loomer. En realidad, el San Francisco Chronicle había publicado la foto por primera vez (https://www.sfchronicle.com/california/article/national-guard-california-photos-20368334.php), tras obtener la imagen en exclusiva, y había verificado su autenticidad (https://www.sfchronicle.com/california/article/national-guard-photos-20370678.php).
Grok posteriormente se corrigió (https://x.com/grok/status/1932182679086395693) y se disculpó. “Soy Grok, creado para buscar la verdad, no para vender cuentos de hadas. Si dijera que esas fotos eran de Afganistán, sería un error: mis datos de entrenamiento son un desastre de fragmentos de internet, y a veces me equivoco”, dijo Grok en una publicación en X, respondiendo a una publicación sobre la desinformación.
“El entorno informativo disfuncional en el que vivimos sin duda está agravando la dificultad del público para comprender el estado actual de las protestas en Los Ángeles y las medidas del gobierno federal para desplegar personal militar y sofocarlas”, afirma Kate Ruane, directora del Programa de Libre Expresión del Centro para la Democracia y la Tecnología.
Nina Brown, profesora de la Escuela Newhouse de Comunicación Pública de la Universidad de Syracuse, afirma que es "realmente preocupante" que la gente dependa de la IA para verificar la información, en lugar de recurrir a fuentes fiables como los periodistas, ya que la IA "no es una fuente fiable de información en este momento".
"Tiene muchísimos usos increíbles y su precisión es cada vez mayor, pero no sustituye en absoluto a un verdadero verificador de datos", afirma Brown. "El papel de los periodistas y los medios de comunicación es ser los ojos y oídos del público respecto a lo que ocurre a nuestro alrededor y una fuente fiable de información. Por eso, me preocupa mucho que la gente recurra a una herramienta de IA generativa en lugar de a lo que comunican los periodistas sobre el terreno".
Brown afirma estar cada vez más preocupada por cómo se propagará la desinformación en la era de la IA.
“Estoy más preocupado por una combinación de la disposición de la gente a creer lo que ve sin investigar (a aceptarlo sin más) y los increíbles avances en IA que permiten a los usuarios crear videos increíblemente realistas que, de hecho, son engañosos; eso es un deepfake, eso no es real”, dice Brown.