Incidentes Asociados
Una joven israelí, herida, aferrada angustiada a los brazos de un soldado. Un niño y una niña ucranianos, tomados de la mano, solos entre los escombros de un paisaje urbano bombardeado. Un infierno que se eleva improbablemente desde las aguas del océano tropical en medio de los devastadores incendios forestales de Maui.
A primera vista, podrían pasar como obras icónicas del fotoperiodismo. Pero ninguno de ellos es real. Son producto de un software de inteligencia artificial y formaban parte de una vasta y creciente biblioteca de falsificaciones fotorrealistas a la venta en uno de los sitios de imágenes de archivo más grandes de la web hasta que anunció un cambio de política esta semana.
En respuesta a las preguntas sobre sus políticas del Washington Post, el sitio de imágenes de archivo Adobe Stock dijo el martes que [tomaría medidas enérgicas contra las imágenes generadas por IA](https://blog.adobe.com/en/fpost/adobe-stock-updates -to-combat-deceived-content-maluse) que parecen representar eventos reales y de interés periodístico y toma nuevas medidas para evitar que sus imágenes se utilicen de manera engañosa.
Título de una imagen en la fuente original: Una foto falsa generada por IA, etiquetada por The Washington Post, de una mujer israelí herida aferrada a un soldado se puede encontrar en Adobe Stock. (Adobe)
A medida que los rápidos avances en las herramientas de generación de imágenes de IA hacen que las imágenes automatizadas sean cada vez más difíciles de distinguir de las reales, los expertos dicen que su proliferación en sitios como Adobe Stock y Shutterstock amenaza con acelerar su difusión en blogs, materiales de marketing y otros lugares de la web, incluidos Redes sociales: líneas borrosas entre ficción y realidad.
Adobe Stock, un mercado en línea donde fotógrafos y artistas pueden cargar imágenes para que los clientes que pagan las descarguen y publiquen en otro lugar, el año pasado se convirtió en el primer servicio importante de imágenes de archivo en [adoptar envíos generados por IA](https://blog.adobe.com/ en/publish/2022/12/05/amplificando-la-creatividad-humana-adobe-stock-defines-new-guidelines-content-generative-ai). Esa medida fue objeto de un nuevo escrutinio después de que una imagen fotorrealista generada por IA de una explosión en Gaza, tomada de la biblioteca de Adobe, apareciera en varios sitios web sin ningún indicio de que fuera falsa, como informó por primera vez el sitio de noticias australiano Crikey. https://www.crikey.com.au/2023/11/01/israel-gaza-adobe-artificial-intelligence-images-fake-news/).
La imagen de la explosión de Gaza, que fue etiquetada como generada por IA en el sitio de Adobe, fue rápidamente desacreditada. Hasta ahora, no hay indicios de que esta u otras imágenes de archivo de IA se hayan vuelto virales o hayan engañado a un gran número de personas. Pero las búsquedas de bases de datos de imágenes de archivo realizadas por The Post mostraron que era solo la punta del iceberg de las imágenes de archivo de la IA.
Título de una imagen en la fuente original: Una foto falsa generada por IA, etiquetada por The Washington Post, muestra una explosión en Gaza. Desde entonces se eliminó de Adobe Stock. (Adobe)
Una búsqueda reciente de "Gaza" en Adobe Stock arrojó más de 3.000 imágenes etiquetadas como generadas por IA, de un total de unos 13.000 resultados. Varios de los resultados principales parecían ser imágenes generadas por IA que no estaban etiquetadas como tales, en aparente violación de las directrices de la empresa. Incluían una serie de imágenes [que representan a niños pequeños](https://stock.adobe.com/images/two-homeless-little-girl-walking-in-destroyed-city-soldiers-and-helicopters-and-tanks- are-still-attacking-the-city/281267515?prev_url=detail), asustados y solos, cargando sus pertenencias mientras huían de las ruinas humeantes de un barrio urbano.
No es sólo la guerra entre Israel y Gaza la que inspira imágenes de archivo de los acontecimientos actuales elaboradas por la IA. Una búsqueda de "guerra de Ucrania" en Adobe Stock arrojó más de 15.000 imágenes falsas del conflicto, incluida una de una niña pequeña [agarrando un osito de peluche](https://stock.adobe.com/images/a-girl- sosteniendo-su-osito-de-peluche-con-un-área-civil-destructiva-durante-tiempos-de-guerra-paisaje-de-dolor-de-las-víctimas-de-guerra-idea-para-apoyar-el-derecho-de-los-niños-especialmente-generativo-ucraniano- ai/567484203?prev_url=detail) con un telón de fondo de vehículos militares y escombros. Cientos de imágenes de IA muestran a personas en [protestas de Black Lives Matter](https://stock.adobe.com/images/black-protester-in-hoodie-and-mask-raising-fists-for-social-justice-generative- ai/596077407?prev_url=detail) eso nunca sucedió. Entre las docenas de imágenes hechas a máquina de los [incendios forestales de Maui](https://stock.adobe.com/images/maui-hawaii-wildfire-engulfed-in-fire-at-night-dark-smoke-palm-trees -beach-water/645876913?prev_url=detail), varias se parecen sorprendentemente a las tomadas por fotoperiodistas.
Título de una imagen en la fuente original: Esta foto falsa generada por IA, etiquetada por The Washington Post, aparece en Adobe Stock con el título "una niña sosteniendo su osito de peluche con un área civil destructiva durante tiempos de guerra, un escenario doloroso de guerra". víctimas, idea para apoyar los derechos de los niños, especialmente los ucranianos, Generative Ai." (Adobe)
Título de una imagen en la fuente original: Esta foto falsa generada por IA, etiquetada por The Washington Post, se puede encontrar en Adobe Stock cuando los usuarios buscan "protestas BLM". (Adobe)
Título de una imagen en la fuente original: Esta foto falsa generada por IA, etiquetada por The Washington Post, se puede encontrar en Adobe Stock cuando los usuarios buscan "incendios en Maui". (Adobe)
"Estamos entrando en un mundo en el que, cuando miras una imagen en línea o fuera de línea, tienes que preguntarte: '¿Es real?'", dijo Craig Peters, director ejecutivo de Getty Images, uno de los mayores proveedores de fotografías para editores de todo el mundo.
Adobe inicialmente dijo que tenía políticas para etiquetar claramente dichas imágenes como generadas por IA y que las imágenes estaban destinadas a usarse solo como ilustraciones conceptuales, no hacerse pasar por fotoperiodismo. Después de que The Post y otras publicaciones señalaran ejemplos en sentido contrario, la compañía implementó políticas más estrictas el martes. Entre ellas se incluyen la prohibición de imágenes de IA cuyos títulos impliquen que representan eventos de interés periodístico; la intención de tomar medidas sobre imágenes mal etiquetadas; y planea adjuntar etiquetas nuevas y más claras al contenido generado por IA.
"Adobe está comprometida a luchar contra la desinformación", afirmó Kevin Fu, portavoz de la empresa. Señaló que Adobe ha encabezado una Iniciativa de Autenticidad de Contenido que trabaja con editores, fabricantes de cámaras y otros para adoptar estándares para etiquetar imágenes generadas o editadas por IA.
Sin embargo, hasta el miércoles, miles de imágenes generadas por IA permanecían en su sitio, incluidas algunas aún sin etiquetas.
Título de una imagen en la fuente original: Esta foto falsa generada por IA, etiquetada por The Washington Post, se puede encontrar en Adobe Stock con el título "Pobre niño huérfano en una ciudad destruida en el conflicto de guerra entre Palestina e Israel. Concepto de crisis humanitaria". IA generativa." (Adobe)
Título de una imagen en la fuente original: Adobe Stock coloca una etiqueta junto a las imágenes generadas por IA cuando los usuarios buscan obtener una licencia para ellas. (Ilustración del Washington Post; Adobe)
Shutterstock, otro importante servicio de imágenes de archivo, se ha asociado con OpenAI para permitir que la empresa de inteligencia artificial con sede en San Francisco entrene su generador de imágenes Dall-E en la vasta biblioteca de imágenes de Shutterstock. A su vez, los usuarios de Shutterstock pueden generar y subir imágenes creadas con Dall-E, por una tarifa de suscripción mensual.
Una búsqueda en el sitio de Shutterstock de "Gaza" arrojó más de 130 imágenes etiquetadas como generadas por IA, aunque pocas de ellas eran tan fotorrealistas como las de Adobe Stock. Shutterstock no respondió solicitudes de comentarios.
Tony Elkins, miembro del cuerpo docente de la organización de medios sin fines de lucro Poynter, dijo que está seguro de que algunos medios de comunicación utilizarán imágenes generadas por IA en el futuro por una razón: "dinero", dijo.
Desde la recesión económica de 2008, las organizaciones de medios han recortado personal visual para optimizar sus presupuestos. Las imágenes de archivo baratas han demostrado desde hace mucho tiempo ser una forma rentable de proporcionar imágenes junto con artículos de texto, afirmó. Ahora que la IA generativa está facilitando a casi cualquier persona la creación de una imagen de alta calidad de un evento noticioso, será tentador para las organizaciones de medios sin presupuestos saludables o una ética editorial sólida utilizarlas.
Título de una imagen en la fuente original: Esta foto falsa generada por IA, etiquetada por The Washington Post, se encuentra en Adobe Stock con la leyenda "Manifestante negro con sudadera con capucha y máscara levantando los puños por la justicia social. IA generativa". (Adobe)
"Si eres una sola persona que dirige un blog de noticias, o incluso si eres un gran reportero, creo que la tentación [de la IA] de darme una imagen fotorrealista del centro de Chicago... me sentará bien". allí, y creo que la gente utilizará esas herramientas", afirmó.
El problema se vuelve más evidente a medida que los estadounidenses cambian la forma en que consumen las noticias. Aproximadamente la mitad de los estadounidenses a veces o con frecuencia obtienen noticias a través de las redes sociales, según un estudio del Pew Research Center [publicado el 15 de noviembre](https://www.pewresearch.org/journalism/fact-sheet/social-media-and- hoja-noticia/). Casi un tercio de los adultos lo obtienen regularmente a través de la red social Facebook, según el estudio.
En medio de este cambio, Elkins dijo que varias organizaciones de noticias de buena reputación cuentan con políticas para etiquetar el contenido generado por IA cuando se utiliza, pero la industria de las noticias en su conjunto no se ha enfrentado a ello. Si los medios no lo hacen, dijo, "corren el riesgo de que las personas de su organización utilicen las herramientas como mejor les parezca, y eso puede dañar a los lectores y a la organización, especialmente cuando hablamos de confianza".
Si las imágenes generadas por IA reemplazan las fotografías tomadas por periodistas en el terreno, dijo Elkins, sería un flaco favor ético para la profesión y los lectores de noticias.
"Estás creando contenido que no sucedió y haciéndolo pasar como una imagen de algo que está sucediendo actualmente", dijo. "Creo que le hacemos un flaco favor a nuestros lectores y al periodismo si comenzamos a crear narrativas falsas con contenido digital".
Imágenes realistas generadas por IA de la guerra entre Israel y Gaza y otros acontecimientos actuales ya se estaban difundiendo en las redes sociales sin la ayuda de servicios de imágenes de archivo.
Título de una imagen en la fuente original: Esta foto falsa generada por IA, etiquetada por The Washington Post, se puede encontrar en Adobe Stock cuando los usuarios buscan "Gaza". (Adobe)
La actriz Rosie O'Donnell compartió recientemente en Instagram una imagen de una madre palestina cargando a tres niños y sus pertenencias por un camino lleno de basura, con la leyenda "madres e hijos, dejen de bombardear Gaza". Cuando un seguidor comentó que la imagen era una IA falsa, O'Donnell respondió "no, no es así". Pero luego lo eliminó.
Una búsqueda inversa de imágenes en Google ayudó a rastrear la imagen hasta su origen en una presentación de diapositivas de TikTok con imágenes similares, titulada "La supermamá" que ha obtenido 1,3 millones de visitas. Contactado a través de un mensaje de TikTok, el creador de la presentación de diapositivas dijo que había usado IA para adaptar las imágenes de una sola foto real usando Microsoft Bing, que a su vez usa el software de generación de imágenes Dall-E de OpenAI.
Meta, propietaria de Instagram y Facebook, prohíbe ciertos tipos de vídeos "deepfake" generados por IA pero no prohíbe a los usuarios publicar Imágenes generadas por IA. TikTok no prohíbe las imágenes generadas por IA, pero sus políticas exigen que los usuarios etiqueten imágenes generadas por IA de "escenas realistas". ".
Un tercer proveedor importante de imágenes, Getty Images, ha adoptado un enfoque diferente al de Adobe Stock o Shutterstock, prohibiendo por completo las imágenes generadas por IA en su biblioteca. La compañía ha demandado a una importante empresa de inteligencia artificial, Stable Diffusion, alegando que sus generadores de imágenes infringen los derechos de autor de fotografías reales de los cuales Getty posee los derechos. En cambio, Getty se ha asociado con Nvidia para construir su propio generador de imágenes con IA entrenado únicamente en su propia biblioteca de imágenes creativas, que, según afirma, no incluye el fotoperiodismo. o representaciones de acontecimientos actuales.
Peters, el CEO de Getty Images, criticó el enfoque de Adobe, diciendo que no es suficiente confiar en artistas individuales para etiquetar sus imágenes como generadas por IA, especialmente porque cualquiera que use las imágenes puede eliminar esas etiquetas fácilmente. Dijo que su empresa está abogando por que las empresas de tecnología que fabrican herramientas de imágenes de IA construyan marcadores indelebles en las propias imágenes, una práctica conocida como "marca de agua". Pero dijo que la tecnología para hacerlo es un trabajo en progreso.
"Hemos visto lo que la erosión de los hechos y la confianza puede hacerle a una sociedad", dijo Peters. "Nosotros, como medios de comunicación y colectivamente como empresas de tecnología, debemos resolver estos problemas".