Incidentes Asociados

El último modelo 4o de generación de imágenes de OpenAI es sorprendentemente bueno generando texto dentro de imágenes, una hazaña que había resultado particularmente difícil para sus muchos predecesores.
Y eso lo convierte en una herramienta poderosa para generar imágenes de documentos fraudulentos, como han comprobado los usuarios.
Un ejemplo de ello es el director de Menlo Ventures, Deedy Das, tuiteó la foto de un recibo falso de una comida suntuosa en un auténtico asador de San Francisco, como descubrió TechCrunch.
"Puedes usar 4o para generar recibos falsos", escribió Das. "Hay demasiados procesos de verificación en el mundo real que se basan en 'imágenes reales' como prueba. Esa era se acabó".
Doc Holiday
La imagen en sí, a primera vista, es bastante convincente e incluye el desglose de una comida de varios platos, un subtotal correcto e incluso el cálculo de la propina.
Otro usuario incluso logró editar la imagen aún más añadiendo un filtro realista y manchas de comida: la forma perfecta de cometer fraude de gastos, si así se quisiera.
Y eso es solo la punta del iceberg. Das también descubrió que 4o estaba encantado de generar recetas fraudulentas de sustancias controladas como Zoloft.
Escuadrón contra el Fraude
Este desarrollo pone de manifiesto el gran avance de los generadores de imágenes basados en IA. Los modelos anteriores tenían dificultades para recrear letras, lo que a menudo resultaba en formas distorsionadas y frases involuntariamente graciosas (https://futurism.com/google-image-corn-ai-slop).
Más allá de falsificar gastos para comidas suntuosas, la cada vez más astuta capacidad de OpenAI para generar documentos falsos podría abrir la puerta a todo tipo de falsificaciones, desde formularios de impuestos y cheques bancarios hasta identificaciones y certificados de nacimiento falsos.
Queda por ver si podremos detectar esta avalancha de documentos falsos. Pero, dados los esfuerzos actuales de las empresas de IA, el panorama no pinta bien. Barreras como los metadatos adjuntos o las marcas de agua, que revelan si una imagen fue generada por IA, son fácilmente superadas.
Incluso antes de la llegada de los potentes generadores de imágenes basados en IA, una encuesta de 2015 reveló que el 85 % de los encuestados admitió haber mentido para obtener más dinero. Muchos de estos casos de fraude pasan desapercibidos debido a la falta de controles internos y a procesos de cuentas por pagar deficientes.
En otras palabras, ya no se puede creer nada de lo que se ve en línea.