Incident 1018: Le modèle 4o d'OpenAI aurait été utilisé pour générer de faux reçus et ordonnances
Description: Le nouveau générateur d'images d'OpenAI, 4o, aurait été utilisé pour produire des documents frauduleux réalistes, notamment de faux reçus de restaurant, des ordonnances de substances réglementées et potentiellement d'autres documents d'identité ou financiers. Les utilisateurs ont démontré comment le modèle pouvait contourner les restrictions de sécurité pour être utilisé à des fins de fraude aux dépenses, de falsification médicale et d'autres formes de falsification de documents.
Entités
Voir toutes les entitésAlleged: OpenAI developed an AI system deployed by scammers et Fraudsters, which harmed Regulatory agencies , Pharmacists , Law enforcement , healthcare providers , General public , Expense management platforms et Employers.
Systèmes d'IA présumés impliqués: Prescription validation systems , OpenAI 4o image generator , Expense reporting systems et Document verification systems
Statistiques d'incidents
ID
1018
Nombre de rapports
2
Date de l'incident
2025-03-31
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport

Le dernier modèle 4o de génération d'images d'OpenAI est étonnamment performant pour générer du texte à l'intérieur des images, une prouesse qui s'était avérée particulièrement difficile pour ses nombreux prédécesseurs.
Cela en fait un outi…

GPT-4o d'OpenAI a attiré l'attention grâce à ses capacités visuelles avancées, mais aussi à son potentiel d'utilisation abusive. GPT-4o se distingue des modèles précédents par la production de texte au sein d'images qui semblent authentique…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID
· 24 rapports

Fake LinkedIn Profiles Created Using GAN Photos
· 4 rapports

Images of Black People Labeled as Gorillas
· 24 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID
· 24 rapports

Fake LinkedIn Profiles Created Using GAN Photos
· 4 rapports

Images of Black People Labeled as Gorillas
· 24 rapports