Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4314

Incidentes Asociados

Incidente 8514 Reportes
Salt Lake City Police Chief Mike Brown's Voice and Image Misused in AI-Generated Scam

Loading...
Una nueva estafa generada por inteligencia artificial utiliza la voz y la imagen del jefe de Salt Lake City
ksltv.com · 2024

SALT LAKE CITY — El Departamento de Policía de Salt Lake City advierte sobre una nueva estafa generada por inteligencia artificial que utiliza la imagen y la voz del jefe Mike Brown.

Según el detective Dalton Beebe de la policía de Salt Lake City, alguien en Woods Cross recibió un correo electrónico de una cuenta falsa del SLCPD que contenía el mensaje de video supuestamente del jefe.

Beebe dijo que Brown apareció en el video manipulado para afirmar que la persona le debía al gobierno federal casi $100,000.

"El video en sí era obviamente falso", dijo Beebe. "Era una voz en off de una entrevista (de noticias de televisión) que el jefe Mike Brown había hecho hace varios años con la voz clonada. La voz en sí sonaba como la del jefe Mike Brown, sin embargo, se podía decir que era diferente, las palabras estaban desafinadas, la boca no estaba sincronizada con sus labios, el tono estaba desafinado y la gramática también era extraña a veces".

Beebe dijo que las estafas generadas por IA, en general, solo están demostrando ser más convincentes.

KSL TV ha informado de cómo un programa informático puede manipular el audio grabado en un mensaje de una voz familiar para convencer a una víctima de estafa.

“Si recibe una llamada telefónica de un ser querido y está utilizando la urgencia para intentar presionarlo para que haga algo rápidamente, generalmente es una señal de alerta”, dijo Beebe.

El departamento dijo que nunca le pedirá dinero a nadie, y si alguien está preocupado por la fuente de un mensaje, puede llamarlos al 801-799-3000.

Beebe también aconsejó a las personas que consideren proteger sus imágenes, videos y audio en línea, así como su información personal.

“Incluso lo que parece ser información inofensiva podría ser algo que un posible estafador podría usar”, dijo Beebe.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd