Problema 2296
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Las personas que buscan relaciones genuinas a través de Internet deberán ser mucho más conocedoras de las nuevas tecnologías que las exponen al fraude romántico a un "nivel de riesgo completamente nuevo", advierte la profesora asociada Cassandra Cross, investigadora de fraudes en Internet de QUT.
Es probable que las estafas románticas, que les reportaron a los delincuentes 131 millones de dólares de los australianos solo en 2020, sean más difíciles de detectar a medida que los perpetradores comienzan a usar IA (inteligencia artificial) y tecnología deepfake para engañar a sus víctimas.
Con la tecnología deepfake, los delincuentes no solo pueden usar imágenes fácilmente disponibles de otra persona y crear una imagen de perfil falsa, sino que también pueden crear una imagen completamente sintética y el perfil correspondiente sin tener que extraer una de las redes sociales o de Internet de otra persona.
El profesor Cross, de la Escuela de Justicia QUT, dijo que el público se había dado cuenta de las estafas románticas y se le había aconsejado usar métodos de detección como una búsqueda inversa de imágenes en las imágenes enviadas para determinar si el remitente era quien decía ser. .
"Esto significa que será necesario revisar las campañas de prevención del fraude para que las personas tomen conciencia de este método de engaño sofisticado y difícil de detectar", dijo el profesor Cross.
"La IA y las falsificaciones profundas hacen que las búsquedas de imágenes inversas sean prácticamente obsoletas. Existe una necesidad crítica de mejorar la respuesta tecnológica a la IA y el potencial de fraude de las falsificaciones profundas, ya que los medios de detección disponibles son limitados.
El profesor Cross dijo que muchos informes de los medios ya habían documentado el uso de IA y falsificaciones profundas para engañar a las víctimas de fraude romántico.
"Por ejemplo, una mujer estadounidense envió varias sumas de dinero a un hombre que creía que era un oficial de la Marina de los EE. UU. En este caso, el delincuente manipuló imágenes y grabaciones disponibles públicamente de un oficial de la Marina de los EE. UU. para crear videos falsos de la persona genuina bajo un identidad diferente", dijo.
"Además de permitir a los delincuentes levantar imágenes de personas vivas y crear perfiles realistas, el software deepfake puede crear una imagen y un perfil completamente creíbles pero ficticios.
"La capacidad de la tecnología para generar imágenes únicas para usar en perfiles de redes sociales tiene el potencial de cambiar la forma en que se perpetran el fraude romántico y otras prácticas engañosas en línea (como catfishing)".
El profesor Cross dijo que los deepfakes habían evolucionado para incluir grabaciones de voz y eran una herramienta poderosa cuando se usaban con otros comportamientos fraudulentos.
"Por ejemplo, en el fraude de compromiso de correo electrónico comercial (BEC), los delincuentes pueden usar grabaciones de audio falsas para hacerse pasar por directores ejecutivos y otras figuras autorizadas y dirigirse a empleados de nivel inferior con solicitudes urgentes para transferir fondos en su nombre.
"Claramente, los mensajes de prevención deben estar dirigidos a las personas que usan plataformas de citas y plataformas de redes sociales para entablar relaciones y, como mínimo, alertar al público sobre los riesgos que plantean la IA y las falsificaciones profundas en estas áreas de sus vidas.