Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 851: Salt Lake City Police Chief Mike Brown's Voice and Image Misused in AI-Generated Scam

Descripción: A scammer used AI to create a deepfake video of Salt Lake City Police Chief Mike Brown, falsely claiming that a recipient owed $100,000 to the federal government. The video, sent via email from a fake SLCPD account, used a cloned voice and repurposed footage from a past interview.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology creators developed an AI system deployed by Unidentified scammers y Unknown deepfake creators, which harmed Mike Brown , Woods Cross residents y Salt Lake City residents.

Estadísticas de incidentes

ID
851
Cantidad de informes
4
Fecha del Incidente
2024-10-25
Editores
Daniel Atherton
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

+3
Una nueva estafa generada por inteligencia artificial utiliza la voz y la imagen del jefe de Salt Lake City
La policía advierte que no se deje engañar por las estafas de inteligencia artificial que clonan las voces de los policías
Una nueva estafa generada por inteligencia artificial utiliza la voz y la imagen del jefe de Salt Lake City

Una nueva estafa generada por inteligencia artificial utiliza la voz y la imagen del jefe de Salt Lake City

ksltv.com

La imagen falsa del jefe de policía de Salt Lake City genera advertencias sobre estafas con inteligencia artificial que se hacen pasar por policías

La imagen falsa del jefe de policía de Salt Lake City genera advertencias sobre estafas con inteligencia artificial que se hacen pasar por policías

ksl.com

La policía de Salt Lake City advierte a la comunidad sobre una estafa que involucra la voz del jefe Mike Brown generada por inteligencia artificial

La policía de Salt Lake City advierte a la comunidad sobre una estafa que involucra la voz del jefe Mike Brown generada por inteligencia artificial

fox13now.com

La policía advierte que no se deje engañar por las estafas de inteligencia artificial que clonan las voces de los policías

La policía advierte que no se deje engañar por las estafas de inteligencia artificial que clonan las voces de los policías

arstechnica.com

Una nueva estafa generada por inteligencia artificial utiliza la voz y la imagen del jefe de Salt Lake City
ksltv.com · 2024
Traducido por IA

SALT LAKE CITY — El Departamento de Policía de Salt Lake City advierte sobre una nueva estafa generada por inteligencia artificial que utiliza la imagen y la voz del jefe Mike Brown.

Según el detective Dalton Beebe de la policía de Salt Lak…

La imagen falsa del jefe de policía de Salt Lake City genera advertencias sobre estafas con inteligencia artificial que se hacen pasar por policías
ksl.com · 2024
Traducido por IA

SALT LAKE CITY — La policía de Salt Lake City insta a tener cuidado con los estafadores que utilizan inteligencia artificial para hacerse pasar por la policía.

La advertencia se produce después de que un residente de Woods Cross informara h…

La policía de Salt Lake City advierte a la comunidad sobre una estafa que involucra la voz del jefe Mike Brown generada por inteligencia artificial
fox13now.com · 2024
Traducido por IA

SALT LAKE CITY — Si recibió un correo electrónico que incluía imágenes del jefe de policía de Salt Lake City, Mike Brown, diciendo que le debe al gobierno federal casi $100,000, se trataba de una estafa.

La policía de Salt Lake City se ente…

La policía advierte que no se deje engañar por las estafas de inteligencia artificial que clonan las voces de los policías
arstechnica.com · 2024
Traducido por IA

Según los informes, la IA está dando a los estafadores una forma más convincente de hacerse pasar por la policía.

La semana pasada, el Departamento de Policía de Salt Lake City (SLCPD) advirtió de una estafa por correo electrónico que utili…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 informes
Security Robot Rolls Over Child in Mall

Crime-fighting robot hits, rolls over child at Silicon Valley mall

Jul 2016 · 27 informes
Police Departments Reported ShotSpotter as Unreliable and Wasteful

Gunshot detection system gets mixed reviews nationally

Oct 2012 · 15 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Wrongfully Accused by an Algorithm

Jan 2020 · 11 informes
Security Robot Rolls Over Child in Mall

Crime-fighting robot hits, rolls over child at Silicon Valley mall

Jul 2016 · 27 informes
Police Departments Reported ShotSpotter as Unreliable and Wasteful

Gunshot detection system gets mixed reviews nationally

Oct 2012 · 15 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e