Incidente 1155: Imagen de evidencia policial supuestamente editada por IA publicada en Facebook por el Departamento de Policía de Westbrook en Maine
Descripción: Se informó que una foto de evidencia de un operativo antidrogas en Westbrook, Maine, fue alterada involuntariamente mediante una herramienta de edición con inteligencia artificial antes de publicarse en Facebook, modificando los detalles del empaque y creando elementos visuales falsos. La imagen alterada generó dudas y preocupaciones sobre la autenticidad de la evidencia policial. El Departamento de Policía de Westbrook confirmó posteriormente el uso de inteligencia artificial, explicó que el error se produjo al añadir su parche a la fotografía y emitió una disculpa pública.
Editor Notes: See the Westbrook Police Department's public apology here: https://www.facebook.com/WestbrookPD/posts/pfbid02aDWUJAtszA81VRJJZvzPaTMA98ir18fJpLgRHKFu6ZGkZesZ3f3veWotqKq9dgvQl.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Unknown AI image-editing software developer developed an AI system deployed by Westbrook Police Department, which harmed Westbrook Police Department , General public of Maine , General public of Westbrook, Maine y Epistemic integrity.
Sistemas de IA presuntamente implicados: Unknown AI image-editing software y Facebook
Estadísticas de incidentes
ID
1155
Cantidad de informes
1
Fecha del Incidente
2025-07-01
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
3.1. False or misleading information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Misinformation
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
Informes del Incidente
Cronología de Informes
Loading...
Un departamento de policía de Maine emitió un mea culpa después de que la agencia declarara haber compartido inadvertidamente en redes sociales una foto de evidencia de drogas alterada por IA.
La imagen del Departamento de Policía de Westbr…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

