Incidents associés

Le dernier modèle 4o de génération d'images d'OpenAI est étonnamment performant pour générer du texte à l'intérieur des images, une prouesse qui s'était avérée particulièrement difficile pour ses nombreux prédécesseurs.
Cela en fait un outil puissant pour générer des images de documents frauduleux, comme l'ont constaté les utilisateurs.
Par exemple, Deedy Das, directeur de Menlo Ventures, a tweeté la photo d'un faux reçu pour un repas somptueux dans un vrai steakhouse de San Francisco, comme l'a repéré TechCrunch.
« Vous pouvez utiliser 4o pour générer de faux reçus », a écrit Das. « Il existe trop de processus de vérification dans le monde réel qui s'appuient sur de “vraies images” comme preuves. Cette époque est révolue. »
Doc Holiday
L'image elle-même, à première vue, est assez convaincante et comprend le détail d'un repas à plusieurs plats, un sous-total correct et même un calcul de pourboire.
Un autre utilisateur a même réussi à modifier l'image en ajoutant un filtre réaliste et des taches de nourriture — le moyen idéal pour commettre une fraude aux dépenses, si vous en avez envie.
Et ce n'est que la partie émergée de l'iceberg. Das a également découvert que 4o se faisait un plaisir de générer de fausses ordonnances pour des substances réglementées comme le Zoloft.
Fraud Squad
Ce développement illustre les progrès réalisés par les générateurs d'images basés sur l'IA. Les modèles précédents peinaient à recréer les lettres, ce qui provoquait souvent des formes déformées et des phrases involontairement hilarantes (https://futurism.com/google-image-corn-ai-slop).
Au-delà de la simulation de dépenses pour des repas somptueux, la capacité de plus en plus astucieuse d'OpenAI à générer de faux documents pourrait ouvrir la voie à toutes sortes de fausses déclarations fiscales, de faux chèques bancaires, de fausses cartes d'identité et de faux certificats de naissance.
Il reste à voir si nous parviendrons à détecter cette avalanche de faux documents. Mais compte tenu des efforts actuels des entreprises d'IA, la situation ne s'annonce pas très bien. Des barrières telles que les métadonnées ajoutées ou les filigranes, qui révèlent si une image a été générée par une IA, sont facilement contournées.
Avant même l'avènement des puissants générateurs d'images basés sur l'IA, une enquête de 2015 a révélé que 85 % des personnes interrogées admettaient avoir menti pour obtenir un remboursement plus important. De nombreux cas de fraude de ce type passent entre les mailles du filet en raison d'un manque de contrôles internes et de processus de comptabilité fournisseurs défaillants.
En d'autres termes, il est désormais impossible de croire ce que l'on voit en ligne.