Incidente 1018: El modelo 4o de OpenAI supuestamente se utiliza para generar recibos y recetas falsas
Descripción: El nuevo generador de imágenes de OpenAI, 4o, se utilizó, según se informa, para generar documentos fraudulentos realistas, incluyendo recibos de restaurantes falsos, recetas de sustancias controladas y, posiblemente, otros documentos de identidad o financieros. Los usuarios demostraron cómo se podía inducir al modelo a eludir las restricciones de seguridad para su uso indebido en fraudes de gastos, falsificación médica y otras formas de falsificación de documentos.
Entidades
Ver todas las entidadesAlleged: OpenAI developed an AI system deployed by scammers y Fraudsters, which harmed Regulatory agencies , Pharmacists , Law enforcement , healthcare providers , General public , Expense management platforms y Employers.
Sistemas de IA presuntamente implicados: Prescription validation systems , OpenAI 4o image generator , Expense reporting systems y Document verification systems
Estadísticas de incidentes
ID
1018
Cantidad de informes
2
Fecha del Incidente
2025-03-31
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes

El último modelo 4o de generación de imágenes de OpenAI es sorprendentemente bueno generando texto dentro de imágenes, una hazaña que había resultado particularmente difícil para sus muchos predecesores.
Y eso lo convierte en una herramient…

GPT-4o de OpenAI ha recibido atención por sus avanzadas habilidades visuales y su potencial de uso indebido. GPT-4o se distingue de los modelos anteriores porque produce texto dentro de imágenes con una apariencia auténtica y legible, lo qu…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID
· 24 informes

Fake LinkedIn Profiles Created Using GAN Photos
· 4 informes

Images of Black People Labeled as Gorillas
· 24 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID
· 24 informes

Fake LinkedIn Profiles Created Using GAN Photos
· 4 informes

Images of Black People Labeled as Gorillas
· 24 informes