Incidentes Asociados

ChatGPT de OpenAI, el generador de texto de inteligencia artificial (IA) basado en el modelo de lenguaje grande (LLM), aparentemente puede usarse para generar código para tareas maliciosas, según observó una nota de investigación de la firma de seguridad cibernética Check Point el martes. Los investigadores de Check Point usaron ChatGPT y Codex, un generador de código de lenguaje natural de OpenAI, usaron instrucciones estándar en inglés para crear un código que se puede usar para lanzar ataques de phishing selectivo.
El mayor problema con tales generadores de código de IA radica en el hecho de que las herramientas de procesamiento de lenguaje natural (NLP) pueden reducir la barrera de entrada para los piratas informáticos con intenciones maliciosas. Dado que los generadores de código no necesitan que los usuarios estén bien versados en codificación, cualquier usuario puede cotejar el flujo lógico de información que se usa en una herramienta maliciosa de la web abierta y usar la misma lógica para generar sintaxis para herramientas maliciosas.
Para demostrar el problema, Check Point mostró cómo se usó el generador de código de IA para crear una plantilla de código básica para una estafa de correo electrónico de phishing y aplicar las instrucciones posteriores en un lenguaje sencillo para seguir mejorando el código. En lo que demostraron los atacantes, cualquier usuario con intenciones maliciosas puede crear una campaña completa de piratería utilizando estas herramientas.
Sergey Shykevich, gerente del grupo de inteligencia de amenazas en Check Point, dijo que herramientas como ChatGPT tienen "potencial para alterar significativamente el panorama de amenazas cibernéticas".
“Los piratas informáticos también pueden iterar sobre código malicioso con ChatGPT y Codex. Las tecnologías de IA representan otro paso adelante en la peligrosa evolución de capacidades cibernéticas cada vez más sofisticadas y efectivas”, agregó.
Sin duda, aunque los modelos de lenguaje de código abierto también se pueden usar para crear herramientas de defensa cibernética, la falta de protección en términos de su uso para generar herramientas maliciosas podría ser potencialmente alarmante. Check Point señaló que, si bien ChatGPT afirma que el uso de su plataforma para crear herramientas de piratería está "en contra" de su política, no existen restricciones que le impidan hacerlo.
Esta no es la primera vez que un servicio de procesamiento de imágenes y lenguaje de IA ha mostrado potencial para el uso indebido. Lensa, una herramienta de edición y modificación de imágenes basada en inteligencia artificial de Prisma, con sede en EE. UU., también destacó cómo la falta de filtrado basado en la imagen corporal y la desnudez podría llevar a la anulación de la privacidad de imágenes creadas de un individuo sin consentimiento.