Incidentes Asociados

Según los informes, la IA está dando a los estafadores una forma más convincente de hacerse pasar por la policía.
La semana pasada, el Departamento de Policía de Salt Lake City (SLCPD) advirtió de una estafa por correo electrónico que utilizaba IA para clonar de manera convincente la voz del jefe de policía Mike Brown.
Un ciudadano avisó a la policía después de recibir un correo electrónico sospechoso que incluía un video que mostraba al jefe de policía afirmando que "le debían al gobierno federal casi $100,000".
Para engañar a sus objetivos, los estafadores juntaron imágenes reales de una de las entrevistas televisivas anteriores de Brown con audio generado por IA que, según el SLCPD, "es claro y se asemeja mucho a la voz del jefe Brown, lo que podría llevar a los miembros de la comunidad a creer que el mensaje era legítimo".
El FBI ha advertido durante años sobre estafadores que intentan extorsionar haciéndose pasar por policías o funcionarios del gobierno. Pero a medida que la tecnología de clonación de voz de IA ha avanzado, estas estafas podrían volverse mucho más difíciles de detectar, hasta el punto en que incluso las empresas más vanguardistas como OpenAI han dudado en lanzar la última tecnología debido a preocupaciones obvias sobre un posible abuso.
El SLCPD señaló que había pistas en el correo electrónico en el que se hacía pasar por su jefe de policía que un ciudadano experto en tecnología podría haber detectado. Una escucha más atenta revela que "el mensaje tenía patrones de habla poco naturales, un énfasis extraño en ciertas palabras y un tono inconsistente", así como "ediciones acústicas detectables de una oración a la siguiente". Y quizás lo más evidente es que el correo electrónico fraudulento provenía de "una cuenta de Google y tenía el nombre del Departamento de Policía de Salt Lake City seguido de un número numérico", en lugar de provenir del dominio de correo electrónico oficial del departamento de policía de "slc.gov".
El SLCPD no es el único departamento de policía que se enfrenta a imitadores de policías de inteligencia artificial. Tulsa tuvo un problema similar este verano cuando los estafadores comenzaron a llamar a los residentes usando una voz falsa convincente diseñada para sonar como el oficial de policía de Tulsa Eric Spradlin, informó Public Radio Tulsa [(https://www.publicradiotulsa.org/local-regional/2024-07-25/scam-calls-get-real-by-impersonating-tulsa-police-officers-loved-ones-thanks-to-ai)]. Un desarrollador de software que recibió la llamada, Myles David, dijo que comprendía los riesgos de la IA hoy, pero que incluso él fue "tomado por sorpresa" y tuvo que llamar a la policía para verificar que la llamada no era real.
"Parecía una conversación muy, muy informal, como si esta persona realmente estuviera esperando hablar conmigo", dijo David. "Usó mi nombre, mi apellido. Hablaron de manera muy informal. Por eso sonó tan real y, en última instancia, por eso fue tan aterrador".
A diferencia de la dirección de correo electrónico obviamente falsa en el caso de Salt Lake City, un profesor de ciberseguridad que fue blanco de la estafa de Tulsa, Tyler Moore, dijo a Public Radio Tulsa que es relativamente fácil hacer que la llamada telefónica fraudulenta parezca que proviene de una línea policial de Tulsa.
La policía recomienda llamar a la policía para denunciar a los policías falsos
Este abuso emergente de la IA no se limita a los EE. UU. Una publicación en X en marzo de un usuario llamado Kaveri atrajo más de 800.000 visualizaciones, advertencia sobre un estafador que se hace pasar por policía en la India y amenaza con quitarle a su hija pequeña si no hace lo que le dicen.
Ese estafador clonó la voz de su hija, parte de otra tendencia preocupante detectada el año pasado, donde los malos actores estafaron a personas por miles de dólares usando IA para hacerse pasar por seres queridos en apuros.
Para Kaveri, al final, se levantó una señal de alerta al hacer preguntas específicas que aparentemente dejaron en claro que su hija no estaba con el supuesto policía. Pero según The Indian Express, otras personas que fueron víctimas de estafas similares fueron engañadas y terminaron perdiendo dinero.
La policía de todo el mundo espera crear conciencia sobre el creciente riesgo de estafas de voz con inteligencia artificial para disuadir a los daños, y recomienda a los ciudadanos que verifiquen las llamadas de la policía y hagan preguntas específicas que un estafador podría no ser capaz de responder.