Description: OpenAI’s new image generator, 4o, was reportedly used to produce realistic fraudulent documents, including fake restaurant receipts, prescriptions for controlled substances, and potentially other identity or financial documents. Users demonstrated how the model could be prompted to bypass safety restrictions to be misused for expense fraud, medical forgery, and other various forms of document falsification.
Entités
Voir toutes les entitésAlleged: OpenAI developed an AI system deployed by scammers et Fraudsters, which harmed Regulatory agencies , Pharmacists , Law enforcement , healthcare providers , General public , Expense management platforms et Employers.
Systèmes d'IA présumés impliqués: Prescription validation systems , OpenAI 4o image generator , Expense reporting systems et Document verification systems
Statistiques d'incidents
ID
1018
Nombre de rapports
2
Date de l'incident
2025-03-31
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport

Le dernier modèle 4o de génération d'images d'OpenAI est étonnamment performant pour générer du texte à l'intérieur des images, une prouesse qui s'était avérée particulièrement difficile pour ses nombreux prédécesseurs.
Cela en fait un outi…

GPT-4o d'OpenAI a attiré l'attention grâce à ses capacités visuelles avancées, mais aussi à son potentiel d'utilisation abusive. GPT-4o se distingue des modèles précédents par la production de texte au sein d'images qui semblent authentique…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID
· 24 rapports

Fake LinkedIn Profiles Created Using GAN Photos
· 4 rapports

Images of Black People Labeled as Gorillas
· 24 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID
· 24 rapports

Fake LinkedIn Profiles Created Using GAN Photos
· 4 rapports

Images of Black People Labeled as Gorillas
· 24 rapports