Incidentes Asociados
PEKÍN – Un estafador en China utilizó inteligencia artificial (IA) para hacerse pasar por un amigo de confianza de un empresario y convencerlo de que le entregara millones de yuanes, según informaron las autoridades.
La víctima, cuyo apellido es Guo, recibió una videollamada en abril de una persona que parecía y hablaba como un amigo cercano.
Sin embargo, quien llamó era en realidad un estafador que "usaba tecnología de IA para cambiar su rostro" y su voz, según un artículo publicado el lunes por un portal de medios asociado al gobierno de la ciudad sureña de Fuzhou.
El estafador se hacía pasar por un buen amigo de Guo y cometía fraude, según el artículo.
El Sr. Guo fue persuadido para transferir 4,3 millones de yuanes (823.000 dólares singapurenses) después de que el estafador alegara que otro amigo necesitaba retirar el dinero de una cuenta bancaria de la empresa para pagar la garantía de una licitación pública.
El estafador solicitó el número de cuenta bancaria personal del Sr. Guo y luego afirmó que se había transferido una suma equivalente a esa cuenta, enviándole una captura de pantalla de un registro de pago fraudulento.
Sin verificar si había recibido el dinero, el Sr. Guo envió dos pagos desde la cuenta de su empresa por un total de la cantidad solicitada.
"En ese momento, verifiqué el rostro y la voz de la persona que me estaba videollamando, así que bajé la guardia", declaró el Sr. Guo, según el artículo.
Se dio cuenta de su error solo después de enviar un mensaje a su amigo, cuya identidad había sido suplantada y quien desconocía la transacción.
El Sr. Guo alertó a la policía, que notificó a un banco en otra ciudad que no procediera con las transferencias, y logró recuperar 3,4 millones de yuanes, según el artículo.
Añadió que se estaban realizando esfuerzos para recuperar los fondos restantes, pero no identificó a los autores del plan.
Los posibles riesgos de la tecnología innovadora de IA han recibido mayor atención desde que la empresa estadounidense OpenAI lanzó en noviembre ChatGPT, un chatbot que imita el habla humana.
China ha anunciado ambiciosos planes para convertirse en líder mundial en IA para 2030, y numerosas empresas tecnológicas, como Alibaba, JD.com, NetEase y ByteDance, empresa matriz de TikTok, se han apresurado a desarrollar productos similares.
ChatGPT no está disponible en China, pero el software estadounidense está captando una base de usuarios chinos que utilizan redes privadas virtuales para acceder a él y escribir ensayos y estudiar para los exámenes. Sin embargo, también se está utilizando con fines más nefastos.
A principios de mayo, la policía de la provincia noroccidental de Gansu declaró que se habían tomado "medidas coercitivas" contra un hombre que utilizó ChatGPT para crear una noticia falsa sobre un accidente de autobús mortal que se difundió ampliamente en redes sociales.
Una ley que regula los deepfakes, que entró en vigor en enero, prohíbe el uso de esta tecnología para producir, publicar o transmitir noticias falsas.
Y un proyecto de ley propuesto en abril por el regulador de internet de Pekín exigiría que todos los nuevos productos de IA se sometan a una "evaluación de seguridad" antes de su lanzamiento al público. AFP