Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2490

Incidentes Asociados

Incidente 44325 Reportes
ChatGPT Abused to Develop Malicious Softwares

Loading...
Punto de control: ChatGPT puede redactar correos electrónicos maliciosos, código
sdxcentral.com · 2022

Check Point Research today [publicado](https://research.checkpoint.com/2022/opwnai-ai- that-can-save-the-day-or-hack-it-away/) un estudio sobre ChatGPT y [Codex](https://openai. com/blog/openai-codex/), destacando cómo los actores de amenaza pueden usar estas herramientas para producir correos electrónicos maliciosos, código y una cadena de infección completa.

ChatGPT es una interfaz para el modelo de lenguaje grande (LLM) de OpenAI, que es un prototipo de chatbot cuyo "propósito es ayudar con una amplia gama de tareas y responder preguntas lo mejor que pueda". Y Codex es un sistema basado en inteligencia artificial (IA) que traduce el lenguaje natural a código, según Check Point y OpenAI.

“Como cualquier tecnología, la creciente popularidad de ChatGPT también conlleva un mayor riesgo”, señalaron los investigadores de Check Point, y agregaron que los ejemplos de códigos o diálogos maliciosos generados por ChatGPT se pueden encontrar fácilmente en Twitter.

Para ilustrar este punto, el equipo de investigación creó un flujo de infección completo que incluye un correo electrónico de phishing y un archivo de Excel malicioso armado con macros que descarga un shell inverso.

El equipo le pidió a ChatGPT que escribiera un correo electrónico de phishing que parece provenir de un servicio de alojamiento web ficticio: Host4u. A pesar de que OpenAI señaló que este contenido puede violar su política de contenido, aún proporcionó una respuesta.

Después de una mayor integración para aclarar el requisito, ChatGPT produjo un correo electrónico de phishing "excelente". Los investigadores usaron ese correo electrónico para crear el código VBA malicioso en el documento de Excel.

“ChatGPT demostró que, con buenas indicaciones textuales, puede brindarle código malicioso en funcionamiento”, señaló el equipo de Check Point.

Además, probaron la capacidad de Codex para producir un caparazón inverso básico usando un marcador de posición IP y puerto, junto con herramientas de escaneo y mitigación.

“Una vez más, nuestros amigos de IA nos ayudan”, señaló Check Point Research. “El flujo de infección está completo. Creamos un correo electrónico de phishing con un documento de Excel adjunto que contiene un código VBA malicioso que descarga un shell inverso en la máquina de destino”.

“El trabajo duro lo hicieron las IA, y todo lo que nos queda por hacer es ejecutar el ataque”, agregaron.

El estudio también demostró que esas herramientas de IA pueden aumentar los defensores. Los investigadores utilizaron Codex para generar dos funciones de Python: la búsqueda de direcciones URL dentro de los archivos utilizando el paquete YARA y VirusTotal para la cantidad de detecciones de un hash específico.

“Esperamos despertar la imaginación de los blue teamers y los cazadores de amenazas para que utilicen los nuevos LLM para automatizar y mejorar su trabajo”, escribieron.

El equipo de investigación quería subrayar la importancia de la vigilancia cuando se utilizan tecnologías de IA en desarrollo que pueden cambiar el [panorama de amenazas cibernéticas] (https://www.sdxcentral.com/articles/analysis/weekly-cyberattacks-peak-in-q2-check- point-finds/2022/08/) significativamente.

“Este es solo un escaparate elemental del impacto de la investigación de IA en la ciberseguridad. Se pueden generar múltiples guiones fácilmente con ligeras variaciones usando diferentes redacciones. Los procesos de ataque complicados también se pueden automatizar utilizando las API de LLM para generar otros artefactos maliciosos”, escribieron.

“Los defensores y los cazadores de amenazas deben estar atentos y ser cautelosos a la hora de adoptar esta tecnología rápidamente, de lo contrario, nuestra comunidad estará un paso por detrás de los atacantes”, advirtió Check Point Research.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd