Problema 3252

Fue una imagen espantosa que rápidamente circuló por Internet: un cuerpo carbonizado, descrito como el de un niño fallecido, que aparentemente fue fotografiado en los primeros días del conflicto entre Israel y Hamás.
Algunos observadores en las redes sociales rápidamente lo descartaron como una “falsificación generada por IA”, creada utilizando herramientas de inteligencia artificial que pueden producir imágenes fotorrealistas con unos pocos clics.
Varios A.I. Desde entonces, los especialistas han concluido que la tecnología probablemente no estuvo involucrada. Para entonces, sin embargo, las dudas sobre su veracidad ya estaban generalizadas.
Desde el ataque terrorista de Hamas el 7 de octubre, los defensores de la desinformación temen que las falsificaciones creadas por A.I. Las herramientas, incluidas las representaciones realistas conocidas como deepfakes, confundirían al público y reforzarían los esfuerzos de propaganda.
Hasta ahora, han acertado en su predicción de que la tecnología tendría mucha importancia durante la guerra, pero no exactamente por la razón que pensaban.
Los investigadores de desinformación han encontrado relativamente pocos casos de IA. falsificaciones, y aún menos que sean convincentes. Sin embargo, la mera posibilidad de que A.I. El contenido que podría estar circulando está llevando a la gente a descartar imágenes, vídeos y audios genuinos por considerarlos no auténticos.
En foros y plataformas de redes sociales como X, Truth Social, Telegram y Reddit, la gente ha acusado a figuras políticas, medios de comunicación y otros usuarios de intentar descaradamente manipular la opinión pública mediante la creación de inteligencia artificial. contenido, incluso cuando es casi seguro que el contenido sea genuino.
“Incluso según los estándares de niebla de guerra a los que estamos acostumbrados, esto el conflicto es particularmente complicado”, afirmó Hany Farid, profesor de informática de la Universidad de California en Berkeley y experto en ciencia forense digital, A.I. y desinformación. “El espectro de los deepfakes es mucho, mucho más significativo ahora: no hacen falta decenas de miles, sólo se necesitan unos pocos, y luego envenenas el pozo y todo se vuelve sospechoso”.
La inteligencia artificial ha mejorado enormemente durante el año pasado, permitiendo a casi cualquier persona crear una falsificación persuasiva ingresando texto en los populares sistemas de inteligencia artificial. generadores que producen imágenes, vídeo o audio, o mediante el uso de herramientas más sofisticadas. Cuando en la primavera de 2022 se publicó un video deepfake del presidente Volodymyr Zelensky de Ucrania, fue ampliamente ridiculizado por ser demasiado crudo para ser real; un vídeo falso similar del presidente Vladimir V. Putin de Rusia fue bastante convincente para que varias cadenas de radio y televisión rusas lo transmitan este mes de junio.
Dos deepfakes producidos con aproximadamente un año de diferencia demuestran cómo avanza la tecnología, ahora en manos de los usuarios cotidianos.
“¿Qué sucede cuando literalmente todo lo que ves que es digital puede ser sintético?” Bill Marcellino, científico conductual senior y A.I. experto del grupo de investigación RAND Corporation, en una conferencia de prensa la semana pasada. "Eso ciertamente suena como un cambio decisivo en cómo confiamos o no en la información".
En medio de discusiones altamente emotivas sobre Gaza, muchas de ellas suceden en plataformas de redes sociales que han luchado para proteger usuarios contra contenido gráfico e inexacto, la confianza continúa desgastándose. Y ahora, los expertos dicen que agentes maliciosos se están aprovechando de la disponibilidad de la IA para descartar el contenido auténtico como falso, un concepto conocido como el dividendo del mentiroso.
Su mala dirección durante la guerra se ha visto reforzada en parte por la presencia de algún contenido creado artificialmente.
Una publicación en X con 1,8 millones de visitas afirmaba mostrar a aficionados al fútbol en un estadio de Madrid sosteniendo una enorme bandera palestina; Los usuarios notaron que los cuerpos distorsionados en la imagen eran un signo revelador de A.I. generación. Una cuenta en X vinculada a Hamás compartió una imagen que pretendía mostrar un campamento de tiendas de campaña para israelíes desplazados, pero mostraba una bandera con dos estrellas azules en lugar de la única estrella que aparece en la bandera israelí real. La publicación fue posteriormente eliminada. Los usuarios de Truth Social y de un canal de Telegram vinculado a Hamas compartieron fotografías del Primer Ministro Benjamín Netanyahu de Israel renderizadas sintéticamente para que aparecieran cubiertas de sangre.
Estas imágenes, que se cree que fueron generadas por A.I. herramientas, han llegado a grandes audiencias en línea.
Nota: Contenido ocultado por The New York Times.
Se prestó mucha más atención a imágenes sospechosas que no mostraban signos de I.A. manipulación, como el vídeo del director de un hospital bombardeado en Gaza dando una conferencia de prensa, llamada “A.I. generado” por algunos, que fue filmado desde diferentes puntos de vista por múltiples fuentes.
Otros ejemplos han sido más difíciles de categorizar: el ejército israelí publicó una grabación de lo que describió como [una conversación intervenida telefónica] (https://www.newarab.com/news/gaza-hospital-strike-israeli-audio-proof-disinformation ) entre dos miembros de Hamas, pero lo que algunos oyentes dijeron fue un audio falso ([The New York Times](https://www.nytimes.com/live/2023/10/18/world/israel-hamas-war-biden- gaza?smid=url-share#idf-account-hospital), la BBC y [CNN](https:/ /www.cnn.com/2023/10/21/middleeast/cnn-investigates-forensic-analysis-gaza-hospital-blast/index.html) informaron que aún tienen que verificar la conversación).
En un intento por discernir la verdad a partir de la IA, algunos usuarios de redes sociales recurrieron a herramientas de detección, que afirman detectar la manipulación digital pero que han demostrado estar lejos de ser confiables. Una prueba realizada por The Times encontró que los detectores de imágenes tenían un seguimiento irregular grabar, a veces diagnosticando erróneamente imágenes que eran obvias A.I. creaciones o etiquetar fotos reales como no auténticas.
En los primeros días de la guerra, Netanyahu compartió una serie de imágenes en X, afirmando que eran “fotos horribles de bebés asesinados y quemados” por Hamás. Cuando el comentarista conservador Ben Shapiro amplificó una de las imágenes de X, fue acusado repetidamente de difundir contenido generado por IA.
Una publicación, que obtuvo más de 21 millones de visitas antes de ser eliminada, afirmaba tener pruebas de que la imagen del bebé era falsa: una captura de pantalla de AI or Not, una herramienta de detección, que identificaba la imagen como "generada por IA". Posteriormente, la compañía corrigió ese hallazgo [en X] (https://twitter.com/Ai_or_Not/status/1712967123277172805), diciendo que su resultado no era “conclusivo” porque la imagen fue comprimida y alterada para ocultar detalles de identificación; La compañía también dijo que perfeccionó su detector.
"Nos dimos cuenta de que cada tecnología que se ha construido, en algún momento, se ha utilizado para el mal", dijo Anatoly Kvitnitsky, director ejecutivo de AI or Not, que tiene su sede en el área de la Bahía de San Francisco y tiene seis empleados. “Llegamos a la conclusión de que estamos tratando de hacer el bien, vamos a mantener activo el servicio y haremos todo lo posible para asegurarnos de que somos proveedores de la verdad. Pero sí pensamos en eso: ¿estamos causando más confusión, más caos?”
AI or Not está trabajando para mostrar a los usuarios qué partes de una imagen se sospecha que han sido generadas por IA, dijo Kvitnitsky.
Disponible A.I. Los servicios de detección podrían ser potencialmente útiles como parte de un conjunto más amplio de herramientas, pero son peligrosos cuando se los trata como la última palabra sobre la autenticidad del contenido, dijo Henry Ajder, un experto en medios sintéticos y manipulados.
Las herramientas de detección de deepfake, dijo, “brindan una solución falsa a un problema mucho más complejo y difícil de resolver”.
En lugar de depender de servicios de detección, iniciativas como la Coalición para la Procedencia y Autenticidad del Contenido y empresas como Google están explorando tácticas que identificarían la fuente y el historial de los archivos multimedia. Las soluciones están lejos de ser perfectas: [dos](https://www.cs.umd.edu/article/2023/10/researchers-say-current-ai-watermarks-are-trivial-remove#:~:text= Pero%20beyond%20testing%20how%20easy,detect%20when%20products%20are%20stolen.) grupos de investigadores descubrieron recientemente que la tecnología de marcas de agua existente es fácil de eliminar o evadir, pero sus defensores dicen que podrían ayudar a restaurar cierta confianza en la calidad del contenido.
"Demostrar qué es falso será un esfuerzo inútil y simplemente vamos a hervir el océano tratando de hacerlo", dijo Chester Wisniewski, ejecutivo de la firma de ciberseguridad Sophos. "Nunca va a funcionar, y tenemos que redoblar esfuerzos para empezar a validar lo que es real".
Por ahora, los usuarios de redes sociales que buscan engañar al público dependen mucho menos de la IA fotorrealista. imágenes que en imágenes antiguas de conflictos o desastres anteriores, que retratan falsamente como la situación actual en Gaza, según Alex Mahadevan, director del programa de alfabetización mediática MediaWise de Poynter.
"La gente creerá cualquier cosa que confirme sus creencias o los emocione", dijo. "No importa lo bueno que sea, o lo novedoso que parezca, ni nada por el estilo".