Incidentes Asociados

Los ciberdelincuentes expertos y novatos ya han comenzado a usar el chatbot ChatGPT de OpenAI en un intento por crear herramientas de piratería, dijeron analistas de seguridad.
En un ejemplo documentado, la empresa de seguridad israelí Check Point detectó un hilo en un popular foro clandestino de piratería por un hacker que dijo que estaba experimentando con el popular chatbot de IA para "recrear cepas de malware".
El pirata informático comprimió y compartió malware de Android escrito por ChatGPT en la web. El malware tenía la capacidad de robar archivos de interés, Forbes informes.
El mismo hacker mostró otra herramienta que instalaba una puerta trasera en una computadora y podía infectar una PC con más malware.
Check Point señaló en su evaluación la situación en la que algunos piratas informáticos usaban ChatGPT para crear sus primeros scripts. En el foro antes mencionado, otro usuario compartió el código de Python que dijo que podía cifrar archivos y que había sido escrito usando ChatGPT. El código, dijo, era el primero que había escrito.
Si bien dicho código podría usarse por razones inofensivas, Check Point dijo que podría "modificarse fácilmente para encriptar la máquina de alguien por completo sin ninguna interacción del usuario".
La compañía de seguridad enfatizó que si bien las herramientas de piratería codificadas por ChatGPT parecían "bastante básicas", es "solo cuestión de tiempo hasta que los actores de amenazas más sofisticados mejoren la forma en que usan las herramientas basadas en IA para hacer el mal".
Un tercer caso de uso de ChatGPT para actividades fraudulentas señaladas por Check Point incluyó a un ciberdelincuente que demostró que era posible crear un mercado de la Dark Web utilizando el chatbot de IA. El hacker publicó en el foro clandestino que había usado ChatGPT para crear un código que usa una API de terceros para recuperar los precios actualizados de las criptomonedas, que se usa para el sistema de pago del mercado Dark Web.
El desarrollador de ChatGPT, OpenAI, ha implementado algunos controles que evitan solicitudes obvias para que la IA cree spyware. Sin embargo, el chatbox de IA ha sido objeto de un escrutinio aún mayor después de que los analistas de seguridad y los periodistas descubrieran que podía escribir correos electrónicos de phishing gramaticalmente correctos [sin errores tipográficos] (https://www.bleepingcomputer.com/news/technology/openais-new-chatgpt-bot -10-cosas-peligrosas-de-las-que-es-capaz/).
OpenAI no respondió de inmediato a una solicitud de comentarios.