Problema 2757

SINGAPUR: varios expertos en tecnología de la información (TI) advierten que los chatbots sofisticados como [ChatGPT] de OpenAI (https://www.todayonline.com/singapore/university-professors-singapore-keen-chatgpt-which-they-say-can -help-students-ask-better-questions-and-raise-critical-thinking-2102461) y Bard de Google pronto podría ser utilizado por delincuentes para [estafar](https://www.todayonline.com/singapore/greed-careless -overconfidence-youths-scams-2103011), hackear y realizar ataques maliciosos.
Y es solo "cuestión de tiempo" antes de que Singapur sea objeto de tal ataque, agregó un experto.
Estos chatbots, que utilizan "modelos de lenguaje extenso" para producir contenido más creíble, podrían hacer que las estafas difíciles de detectar porque Una característica clave de las estafas ha sido durante mucho tiempo que cualquier texto involucrado a menudo está mal escrito con mala gramática.
ChatGPT y Bard podrían corregir errores gramaticales y eliminar frases incómodas para hacer que las estafas sean más convincentes, incluso en idiomas distintos al inglés.
El miércoles, en respuesta a las consultas de TODAY, [la policía de Singapur](https://www.todayonline.com/singapore/6-10-scam-victims-2022-aged-below-40-total-cases-surge-30- loss-hit-s660m-2102536) dijeron que estaban monitoreando el posible uso de ChatGPT por parte de los delincuentes y señalaron que la herramienta era "un desarrollo relativamente nuevo".
"Muchos de estos estafadores operan fuera de países donde el inglés no es el primer idioma", dijo el Dr. Edmund WJ Lee, profesor asistente de la Escuela de Comunicación e Información Wee Kim Wee.
"Simplemente podrían pedirles a los chatbots que reescriban su contenido, y esto es mucho más simple y requiere menos esfuerzo que 'buscar en Google'", dijo a TODAY.
Ataque cibernético asistido por ChatGPT Probable dentro de un año: estudio
Un estudio publicado a principios de este año por BlackBerry, una empresa de software y seguridad cibernética con sede en Canadá, encontró que el 51 por ciento de los 1500 profesionales de TI en varios países encuestados cree que un ataque cibernético exitoso se acreditará a ChatGPT en menos de un año.
El equipo de inteligencia e investigación de amenazas de BlackBerry identificó a Singapur como uno de los 10 países principales en términos de la mayoría de los ataques cibernéticos.
En solo 90 días, entre el 1 de septiembre y el 30 de noviembre de 2022, el software de ciberseguridad de inteligencia artificial de la empresa detuvo alrededor de 10 300 ataques cibernéticos basados en malware en Singapur, lo que se traduce en alrededor de 113 por día o casi cinco por hora.
Eso fue de un total de alrededor de 1,75 millones de ataques de este tipo en todo el mundo en ese período.
En una entrevista con TODAY, el Sr. Jonathan Jackson, director de ingeniería de BlackBerry (Asia Pacífico), dijo que es "solo cuestión de tiempo" antes de que Singapur sufra un ataque cibernético usando Chat GPT.
“Si bien aún no se han informado casos conocidos (de ciberataques debido a ChatGPT) en Singapur… los foros clandestinos populares están llenos de actores de amenazas que comparten muestras de código para encriptar datos, robar información y evadir la detección, todo mediante el uso de la capacidad de ChatGPT. "
Los chatbots ofrecen muchas posibilidades para estafadores y piratas informáticos
Un experto citó un ejemplo del uso de ChatGPT en una estafa real.
"Ha habido informes sobre el uso de ChatGPT para generar correos electrónicos de phishing... también ha habido informes en foros clandestinos donde algunos atacantes crearon un ladrón de contraseñas en Python con ChatGPT", dijo el Sr. Stas Protassov, cofundador de Acronis, una empresa de ciberseguridad y datos. empresa de proteccion
Sin embargo, en general, los expertos dijeron que las herramientas sofisticadas de inteligencia artificial como ChatGPT y Bard aún se encuentran en sus primeras etapas.
Eso significa que los ciberdelincuentes todavía están descubriendo cómo usarlos y que en los próximos meses podrían surgir varias técnicas tortuosas imprevistas que emplean estos chatbots.
- Phishing: se pueden usar sofisticados chatbots de IA para crear mensajes de phishing muy convincentes, que son mensajes que imitan fuentes legítimas para engañar a las personas para que revelen información confidencial, como detalles de inicio de sesión bancarios. Esto incluso se puede personalizar, ya que ChatGPT puede generar texto en una amplia variedad de idiomas.
- Suplantación de identidad: como ChatGPT ha sido entrenado con grandes cantidades de datos y detalles, podría usarse para hacerse pasar por personas u organizaciones específicas para convencer a las personas de caer en estafas, como solicitudes urgentes de dinero de un amigo perdido hace mucho tiempo. , o una solicitud de contraseña de empresa de su jefe.
- Noticias falsas: los modelos de lenguaje de IA pueden generar información engañosa o falsa para manipular la opinión pública o causar daño. Por ejemplo, ChatGPT podría producir contenido dudoso o incluso crear sitios completos de noticias falsas en cuestión de minutos.
- Hackear: ChatGPT podría analizar el código fuente de los objetivos de piratería, como sitios web, para encontrar debilidades para explotar. También podría crear secuencias de comandos automatizadas, como "fuerza bruta" en varias credenciales filtradas o pirateadas, hasta que una funcione.
Identificación de problemas de contenido de IA: proyecto de investigación
Un proyecto de investigación publicado en enero de este año por investigadores de WithSecure, una empresa de ciberseguridad con sede en Finlandia, concluyó que identificar contenido malicioso escrito por IA sería un problema.
El proyecto exploró cómo las herramientas de generación de lenguaje de IA podrían usarse indebidamente y probó ChatGPT en una variedad de usos posibles, como la creación de contenido de phishing y artículos de noticias falsas.
Los investigadores realizaron experimentos que demostraron que se podían usar "modelos de lenguaje grandes" como Chat GPT:
- Para crear hilos de correo electrónico adecuados para ataques de phishing
- Para "falsificar profundamente" o imitar muy efectivamente el estilo de escritura de una persona
- Para incorporar la opinión en el contenido escrito existente
- Para elaborar artículos falsos convincentes incluso si la información relevante no está incluida en los datos de entrenamiento del modelo
Qué se puede hacer
Si bien existe una gran posibilidad de que ChatGPT se use de varias maneras para hacer que las estafas y los ataques sean más amenazantes, hay buenas noticias.
"Podría decirse que todavía estamos en la etapa de adopción temprana, incluso los ciberdelincuentes todavía están descubriendo cómo usarlo".
"Esto significa que existe una pequeña ventana de oportunidad para que los legisladores, los desarrolladores de tecnología... todos los sectores de la sociedad puedan salir adelante, para garantizar que las lagunas de tales chatbots no se puedan utilizar como armas y poner en seguridad cibernética y salvaguardas a nivel de políticas", dijo el Dr. Lee .
Los expertos también señalaron que, en general, las estafas se basan principalmente en personas que toman decisiones apresuradas, debido al pánico o al miedo a perderse algo.
Por ejemplo, alguien que dice conocerte, que necesita que le envíes dinero debido a una emergencia.
Como tal, aconsejaron a las personas que reduzcan la velocidad y verifiquen, que estén atentos a los nombres de los encabezados y URL de los correos electrónicos, y que verifiquen las fuentes de información.
Además, se pueden descargar aplicaciones de ciberseguridad como ScamShield, que bloquea mensajes y llamadas fraudulentas.
La autenticación de dos factores, que garantiza que los usuarios solo puedan acceder a sitios web o aplicaciones después de la verificación de dos factores, como a través de un teléfono y una computadora portátil, también se puede usar para aumentar aún más la seguridad.
Sobre los riesgos que plantea ChatGPT, el Sr. Protassov dijo: "Por otro lado, OpenAI actualiza y ajusta constantemente ChatGPT para reducir la probabilidad de que se use para causar daño, tanto en el mundo físico como en el virtual".