Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1018: El modelo 4o de OpenAI supuestamente se utiliza para generar recibos y recetas falsas

Traducido por IA
Descripción:
Traducido por IA
El nuevo generador de imágenes de OpenAI, 4o, se utilizó, según se informa, para generar documentos fraudulentos realistas, incluyendo recibos de restaurantes falsos, recetas de sustancias controladas y, posiblemente, otros documentos de identidad o financieros. Los usuarios demostraron cómo se podía inducir al modelo a eludir las restricciones de seguridad para su uso indebido en fraudes de gastos, falsificación médica y otras formas de falsificación de documentos.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: OpenAI developed an AI system deployed by scammers y Fraudsters, which harmed Regulatory agencies , Pharmacists , Law enforcement , healthcare providers , General public , Expense management platforms y Employers.
Sistemas de IA presuntamente implicados: Prescription validation systems , OpenAI 4o image generator , Expense reporting systems y Document verification systems

Estadísticas de incidentes

ID
1018
Cantidad de informes
2
Fecha del Incidente
2025-03-31
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceEl nuevo generador de imágenes de OpenAI es increíble para crear documentos fraudulentosResulta que el nuevo generador de imágenes de OpenAI es increíble para crear documentos fraudulentos
El nuevo generador de imágenes de OpenAI es increíble para crear documentos fraudulentos

El nuevo generador de imágenes de OpenAI es increíble para crear documentos fraudulentos

futurism.com

Resulta que el nuevo generador de imágenes de OpenAI es increíble para crear documentos fraudulentos

Resulta que el nuevo generador de imágenes de OpenAI es increíble para crear documentos fraudulentos

wonderfulengineering.com

El nuevo generador de imágenes de OpenAI es increíble para crear documentos fraudulentos
futurism.com · 2025
Traducido por IA

El último modelo 4o de generación de imágenes de OpenAI es sorprendentemente bueno generando texto dentro de imágenes, una hazaña que había resultado particularmente difícil para sus muchos predecesores.

Y eso lo convierte en una herramient…

Resulta que el nuevo generador de imágenes de OpenAI es increíble para crear documentos fraudulentos
wonderfulengineering.com · 2025
Traducido por IA

GPT-4o de OpenAI ha recibido atención por sus avanzadas habilidades visuales y su potencial de uso indebido. GPT-4o se distingue de los modelos anteriores porque produce texto dentro de imágenes con una apariencia auténtica y legible, lo qu…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 informes
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 24 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 informes
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 24 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178