Incidents associés
Une jeune Israélienne, blessée, s'agrippe angoissée aux bras d'un soldat. Un garçon et une fille ukrainiens, se tenant la main, seuls dans les décombres d’un paysage urbain bombardé. Un enfer s'élevant de manière improbable des eaux de l'océan tropical au milieu des incendies de forêt qui font rage à Maui.
À première vue, elles pourraient passer pour des œuvres emblématiques du photojournalisme. Mais aucun d’eux n’est réel. Ils sont le produit d'un logiciel d'intelligence artificielle et faisaient partie d'une bibliothèque vaste et croissante de contrefaçons photoréalistes en vente sur l'un des plus grands sites d'images de stock du Web jusqu'à ce qu'il annonce un changement de politique cette semaine.
Répondant aux questions du Washington Post sur ses politiques, le site d'images de stock Adobe Stock a déclaré mardi qu'il allait [sévérer contre les images générées par l'IA](https://blog.adobe.com/en/fpost/adobe-stock-updates -pour lutter contre l'utilisation abusive de contenus trompeurs) qui semblent décrire des événements réels et dignes d'intérêt et prendre de nouvelles mesures pour empêcher que leurs images soient utilisées de manière trompeuse.
Légende d'une image dans la source originale : Une fausse photo générée par l'IA, étiquetée par le Washington Post, d'une Israélienne blessée accrochée à un soldat peut être trouvée sur Adobe Stock. (Adobe)
Alors que les progrès rapides des outils de génération d'images IA rendent les images automatisées de plus en plus difficiles à distinguer des images réelles, les experts affirment que leur prolifération sur des sites tels qu'Adobe Stock et Shutterstock menace d'accélérer leur diffusion sur les blogs, les supports marketing et d'autres endroits sur le Web, notamment médias sociaux --- brouillant les frontières entre fiction et réalité.
Adobe Stock, un marché en ligne où les photographes et les artistes peuvent télécharger des images que les clients payants peuvent télécharger et publier ailleurs, est devenu l'année dernière le premier grand service d'images de stock à [adopter les soumissions générées par l'IA](https://blog.adobe.com/ en/publish/2022/12/05/amplifying-human-creativity-adobe-stock-defines-new-guidelines-content-generative-ai). Cette décision a fait l'objet d'un nouvel examen après qu'une image photoréaliste d'une explosion à Gaza, générée par l'IA, tirée de la bibliothèque d'Adobe, soit apparue sur un certain nombre de sites Web sans aucune indication qu'elle était fausse, comme le site d'information australien Crikey l'a rapporté pour la première fois.
L'image de l'explosion à Gaza, qui a été qualifiée de générée par l'IA sur le site d'Adobe, a été rapidement démystifiée. Jusqu’à présent, rien n’indique que cette image ou d’autres images d’IA soient devenues virales ou aient induit un grand nombre de personnes en erreur. Mais les recherches effectuées dans les bases de données d'images d'archives par The Post ont montré qu'il ne s'agissait que de la pointe de l'iceberg des images d'archives de l'IA.
Légende d'une image dans la source originale : Une fausse photo générée par l'IA, étiquetée par le Washington Post, représente une explosion à Gaza. Il a depuis été supprimé d'Adobe Stock. (Adobe)
Une recherche récente sur « Gaza » sur Adobe Stock a généré plus de 3 000 images qualifiées de générées par l'IA, sur un total de quelque 13 000 résultats. Plusieurs des meilleurs résultats semblaient être des images générées par l'IA qui n'étaient pas étiquetées comme telles, en violation apparente des directives de l'entreprise. Ils comprenaient une série d'images [représentant de jeunes enfants](https://stock.adobe.com/images/two-homeless-little-girl-walking-in-destroyed-city-soldiers-and-helicopters-and-tanks- are-still-attacking-the-city/281267515?prev_url=detail), effrayés et seuls, transportant leurs affaires alors qu'ils fuyaient les ruines fumantes d'un quartier urbain.
Ce n’est pas seulement la guerre entre Israël et Gaza qui inspire les images d’archives d’événements actuels concoctées par l’IA. Une recherche sur « Guerre d'Ukraine » sur Adobe Stock a révélé plus de 15 000 fausses images du conflit, dont celle d'une petite fille [tenant un ours en peluche](https://stock.adobe.com/images/a-girl- tenant-son-ours-en-peluche-avec-une-zone-civile-destructrice-pendant-la-guerre-chagrin-paysage-de-victimes-de-guerre-idée-de-soutien-aux-droits-des-enfants-surtout-générative-ukrainienne- ai/567484203?prev_url=detail) sur fond de véhicules militaires et de décombres. Des centaines d'images d'IA représentent des personnes lors des [manifestations Black Lives Matter](https://stock.adobe.com/images/black-protester-in-hoodie-and-mask-raising-fists-for-social-justice-generative- ai/596077407?prev_url=detail) cela n'est jamais arrivé. Parmi les dizaines d'images réalisées mécaniquement des [incendies de forêt de Maui](https://stock.adobe.com/images/maui-hawaii-wildfire-engulfed-in-fire-at-night-dark-smoke-palm-trees -beach-water/645876913?prev_url=detail), plusieurs ressemblent étonnamment à celles prises par les photojournalistes.
Légende d'une image dans la source originale : Cette fausse photo générée par l'IA, étiquetée par le Washington Post, apparaît sur Adobe Stock avec la légende "une fille tenant son ours en peluche avec une zone civile destructrice en temps de guerre, un paysage de guerre triste". victimes, idée pour soutenir les droits des enfants, notamment ukrainiens, Generative Ai." (Adobe)
Légende d'une image dans la source originale : Cette fausse photo générée par l'IA, étiquetée par le Washington Post, peut être trouvée sur Adobe Stock lorsque les utilisateurs recherchent « manifestations BLM ». (Adobe)
Légende d'une image dans la source originale : Cette fausse photo générée par l'IA, étiquetée par le Washington Post, peut être trouvée sur Adobe Stock lorsque les utilisateurs recherchent « incendies de Maui ». (Adobe)
« Nous entrons dans un monde dans lequel, lorsque vous regardez une image en ligne ou hors ligne, vous devez vous poser la question : « Est-elle réelle ? » », a déclaré Craig Peters, PDG de Getty Images, l'un des plus grands fournisseurs de photos. éditeurs du monde entier.
Adobe a initialement déclaré qu'il avait mis en place des politiques pour étiqueter clairement ces images comme générées par l'IA et que les images étaient destinées à être utilisées uniquement à titre d'illustrations conceptuelles, et non pas comme du photojournalisme. Après que le Post et d’autres publications aient signalé des exemples contraires, l’entreprise a mis en place des politiques plus strictes mardi. Celles-ci incluent une interdiction des images d’IA dont les titres impliquent qu’elles décrivent des événements dignes d’intérêt ; une intention d'agir sur des images mal étiquetées ; et prévoit d'attacher de nouvelles étiquettes plus claires au contenu généré par l'IA.
"Adobe s'engage à lutter contre la désinformation", a déclaré Kevin Fu, porte-parole de l'entreprise. Il a noté qu'Adobe a lancé une initiative sur l'authenticité du contenu qui travaille avec des éditeurs, des fabricants d'appareils photo et d'autres pour adopter des normes d'étiquetage des images générées ou éditées par l'IA.
Mercredi, cependant, des milliers d’images générées par l’IA restaient sur son site, dont certaines toujours sans étiquette.
Légende d'une image dans la source originale : Cette fausse photo générée par l'IA, étiquetée par le Washington Post, peut être trouvée sur Adobe Stock avec la légende "Pauvre enfant orphelin dans une ville détruite dans le conflit de guerre Palestine-Israël. Concept de crise humanitaire. IA générative." (Adobe)
Légende d'une image dans la source originale : Adobe Stock place une étiquette à côté des images générées par l'IA lorsque les utilisateurs cherchent à en obtenir une licence. (Illustration du Washington Post ; Adobe)
Shutterstock, un autre service d'images de stock majeur, s'est associé à OpenAI pour permettre à la société d'IA basée à San Francisco de former son générateur d'images Dall-E sur la vaste bibliothèque d'images de Shutterstock. À leur tour, les utilisateurs de Shutterstock peuvent générer et télécharger des images créées avec Dall-E, moyennant un abonnement mensuel.
Une recherche sur le site Shutterstock pour « Gaza » a renvoyé plus de 130 images étiquetées comme générées par l'IA, même si peu d'entre elles étaient aussi photoréalistes que celles d'Adobe Stock. Shutterstock n'a pas répondu aux demandes de commentaires.
Tony Elkins, membre du corps professoral de l'organisation médiatique à but non lucratif Poynter, s'est dit certain que certains médias utiliseront à l'avenir les images générées par l'IA pour une seule raison : « l'argent », a-t-il déclaré.
Depuis la récession économique de 2008, les médias ont réduit leur personnel visuel pour rationaliser leurs budgets. Les images d'archives bon marché se sont depuis longtemps révélées être un moyen rentable de fournir des images aux côtés d'articles textuels, a-t-il déclaré. Maintenant que l’IA générative permet à presque tout le monde de créer facilement une image de haute qualité d’un événement d’actualité, il sera tentant pour les organisations médiatiques sans budgets sains ni éthique éditoriale solide de les utiliser.
Légende d'une image dans la source originale : Cette fausse photo générée par l'IA, étiquetée par le Washington Post, se trouve sur Adobe Stock avec la légende "Un manifestant noir en sweat à capuche et un masque levant les poings pour la justice sociale. IA générative." (Adobe)
"Si vous êtes une seule personne qui tient un blog d'actualité, ou même si vous êtes un grand journaliste, je pense que la tentation [pour l'IA] de me donner une image photoréaliste du centre-ville de Chicago --- ce sera parfait. là-bas, et je pense que les gens utiliseront ces outils", a-t-il déclaré.
Le problème devient plus évident à mesure que les Américains changent leur façon de consommer l'information. Environ la moitié des Américains obtiennent parfois ou souvent leurs informations sur les réseaux sociaux, selon une étude du Pew Research Center [publiée le 15 novembre](https://www.pewresearch.org/journalism/fact-sheet/social-media-and- fiche-actualité/). Près d'un tiers des adultes l'obtiennent régulièrement sur le site de réseautage social Facebook, selon l'étude.
Au milieu de ce changement, Elkins a déclaré que plusieurs agences de presse réputées avaient mis en place des politiques pour étiqueter le contenu généré par l’IA lorsqu’il était utilisé, mais que l’industrie de l’information dans son ensemble n’y était pas parvenue. Si les médias ne le font pas, a-t-il déclaré, "ils courent le risque que les membres de leur organisation utilisent les outils comme bon leur semble, ce qui peut nuire aux lecteurs et à l'organisation - en particulier lorsque nous parlons de confiance".
Si les images générées par l’IA remplacent les photos prises par les journalistes sur le terrain, Elkins a déclaré que cela ne rendrait pas service à la profession et aux lecteurs de l’information.
"Vous créez du contenu qui n'a pas eu lieu et vous le faites passer pour une image de quelque chose qui se passe actuellement", a-t-il déclaré. "Je pense que nous rendons un très mauvais service à nos lecteurs et au journalisme si nous commençons à créer de faux récits avec du contenu numérique."
Des images réalistes générées par l’IA de la guerre entre Israël et Gaza et d’autres événements actuels se répandaient déjà sur les réseaux sociaux sans l’aide de services d’images.
Légende d'une image dans la source originale : Cette fausse photo générée par l'IA, étiquetée par le Washington Post, peut être trouvée sur Adobe Stock lorsque les utilisateurs recherchent « Gaza ». (Adobe)
L'actrice Rosie O'Donnell a récemment partagé sur Instagram une image d'une mère palestinienne transportant trois enfants et leurs affaires sur une route jonchée d'ordures, avec la légende "Mères et enfants, arrêtez de bombarder Gaza". Lorsqu'un adepte a commenté que l'image était une fausse IA, O'Donnell a répondu "non, ce n'est pas le cas". Mais elle l’a ensuite supprimé.
Une recherche d'images inversée sur Google a permis de retracer l'origine de l'image dans un diaporama TikTok d'images similaires, sous-titré "La Super Maman" qui a recueilli 1,3 million de vues. Contacté via un message TikTok, le créateur du diaporama a déclaré qu'il avait utilisé l'IA pour adapter les images d'une seule photo réelle à l'aide de Microsoft Bing, qui à son tour utilise le logiciel de génération d'images Dall-E d'OpenAI.
Meta, propriétaire d'Instagram et de Facebook, interdit certains types de vidéos "deepfake" générées par l'IA mais n'interdit pas aux utilisateurs de publier Images générées par l'IA. TikTok n'interdit pas les images générées par l'IA, mais ses politiques exigent que les utilisateurs étiquetent les images générées par l'IA des "scènes réalistes". ".
Un troisième fournisseur d'images majeur, Getty Images, a adopté une approche différente de celle d'Adobe Stock ou de Shutterstock, en interdisant complètement les images générées par l'IA de sa bibliothèque. La société a poursuivi en justice une grande société d’IA, Stable Diffusion, alléguant que ses générateurs d’images portent atteinte aux droits d’auteur de vraies photos dont Getty détient les droits. Au lieu de cela, [Getty s'est associé à Nvidia](https://www.gettyimages.com/ai/ Generation/about) pour créer son propre générateur d'images IA formé uniquement sur sa propre bibliothèque d'images créatives, qui, selon elle, n'inclut pas le photojournalisme. ou des représentations d'événements actuels.
Peters, PDG de Getty Images, a critiqué l'approche d'Adobe, affirmant qu'il ne suffit pas de compter sur des artistes individuels pour étiqueter leurs images comme générées par l'IA, en particulier parce que ces étiquettes peuvent être facilement supprimées par toute personne utilisant les images. Il a déclaré que son entreprise préconisait que les entreprises technologiques qui fabriquent des outils d’image d’IA intègrent elles-mêmes des marqueurs indélébiles dans les images, une pratique connue sous le nom de « filigrane ». Mais il a déclaré que la technologie permettant d’y parvenir était un travail en cours.
"Nous avons vu ce que l'érosion des faits et de la confiance peut avoir sur une société", a déclaré Peters. "En tant que médias, nous collectivement en tant qu'entreprises technologiques, nous devons résoudre ces problèmes."