Incidentes Asociados

Los expertos de Check Point Software habían probado las capacidades de ChatGPT para escribir malware. Unas semanas después, ya se han publicado los primeros ejemplos prácticos en un conocido foro de hacking, especialmente por parte de (aspirantes) ciberdelincuentes con pocas habilidades técnicas. Las herramientas son actualmente muy básicas, pero seguramente se distribuirán versiones más sofisticadas en los próximos meses.
Tres ejemplos de malware creado con ChatGPT
Los investigadores de Check Point Research utilizaron ChatGPT para escribir un correo electrónico de phishing con un archivo adjunto de Excel que contenía una macro que descarga malware en su computadora. Un usuario usó OpenAI AI para codificar un ladrón de información en Python. El malware comienza a buscar archivos específicos (por ejemplo, documentos de Word y PDF) que, si los encuentra, se copian en un directorio, se comprimen en formato ZIP y se env ían al servidor remoto. Cuando termine, se eliminarán el directorio y el archivo ZIP.
El segundo ejemplo es una herramienta de cifrado, también escrita en Python. El código contiene todas las funciones necesarias para el cifrado y descifrado de archivos, utilizando varios algoritmos, incluidos Blowfish y Twofish. El código se puede usar para tareas comunes, pero unas pocas modificaciones son suficientes para automatizar las operaciones y explotarlo durante un ataque de ransomware.
El último ejemplo es más complejo. Un usuario del foro utilizó ChatGPT para crear un mercado, que es un sitio web oscuro utilizado para la venta de armas, drogas, malware, productos robados y datos de tarjetas de crédito. Al aprovechar las API de terceros, es posible actualizar los precios en tiempo real teniendo en cuenta el valor actual de las criptomonedas aceptadas como método de pago.
Los expertos de Check Point Software preguntaron a ChatGPT cómo se puede usar la tecnología con fines ilegales. La IA respondió que hay varias formas, incluidos correos electrónicos de phishing, publicaciones en redes sociales o videos falsos para manipular la opinión pública. Sin embargo, OpenAI no es responsable, ya que los términos de servicio prohíben el uso de su tecnología para actividades peligrosas o ilegales.
Este artículo contiene enlaces de afiliados: las compras o pedidos realizados a través de estos enlaces permitirán que nuestro sitio reciba una comisión. Las ofertas pueden sufrir cambios de precio después de su publicación.