Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2602

Incidentes Asociados

Incidente 44325 Reportes
ChatGPT Abused to Develop Malicious Softwares

La gente ya está intentando que ChatGPT escriba malware
zdnet.com · 2023

El chatbot ChatGPT AI ha creado mucha emoción en el poco tiempo que ha estado disponible y ahora parece que algunos lo han reclutado para intentar ayudar a generar código malicioso.

ChatGPT es un herramienta de procesamiento de lenguaje natural que interactúa con los usuarios de una manera conversacional similar a la humana. Entre otras cosas, se puede usar para ayudar con tareas como redactar correos electrónicos, ensayos y códigos.

La herramienta de chatbot fue lanzada por el laboratorio de investigación de inteligencia artificial OpenAI en noviembre y [ha generado un amplio interés y debate sobre](https://www.zdnet.com/article/openais-chatgpt-is-scary-good-at-my- trabajo-pero-no-puede-reemplazarme-todavía/) cómo se está desarrollando la IA y cómo podría usarse en el futuro.

Pero como cualquier otra herramienta, en las manos equivocadas podría usarse para propósitos nefastos; y los investigadores de seguridad cibernética de Check Point dicen que los usuarios de las comunidades clandestinas de hackers ya están experimentando con cómo se podría usar ChatGPT para ayudar a facilitar los ataques cibernéticos y respaldar las operaciones maliciosas.

"Los actores de amenazas con conocimientos técnicos muy bajos, hasta conocimiento tecnológico cero, podrían crear herramientas maliciosas. También podrían hacer que las operaciones diarias de los ciberdelincuentes sofisticados sean mucho más eficientes y fáciles, como crear diferentes partes de la infección. cadena", dijo a ZDNET Sergey Shykevich, gerente del grupo de inteligencia de amenazas en Check Point.

Los términos de servicio de OpenAI prohíben específicamente la generación de malware, que define como "contenido que intenta generar ransomware, keyloggers, virus u otro software destinado a imponer algún nivel de daño". También prohíbe los intentos de crear spam, así como los casos de uso destinados al ciberdelito.

Sin embargo, el análisis de la actividad en varios [foros clandestinos de piratería] (https://www.zdnet.com/article/like-playing-whack-a-mole-do-cyber-crime-crackdowns-have-any-real- impact/) sugiere que los ciberdelincuentes ya están usando ChatGPT para desarrollar herramientas maliciosas y, en algunos casos, ya permite que los ciberdelincuentes de bajo nivel sin habilidades de desarrollo o codificación creen [malware] (https://www.zdnet.com /artículo/qué-es-malware-todo-lo-que-necesita-saber-sobre-virus-troyanos-y-software-malicioso/).

En un hilo del foro que apareció a fines de diciembre, el cartel describía cómo estaban usando ChatGPT para recrear las cepas y técnicas de malware descritas en publicaciones de investigación y artículos sobre malware común.

Al hacer esto, pudieron crear un malware de robo de información basado en Python que busca archivos comunes, incluidos documentos de Microsoft Office, PDF e imágenes, los copia y luego los carga en un servidor de protocolo de transferencia de archivos.

El mismo usuario también demostró cómo había usado ChatGPT para crear malware basado en Java, que al usar PowerShell podría aprovecharse para descargar y ejecutar de forma encubierta otro malware en los sistemas infectados.

Los investigadores señalan que el usuario del foro que hace estos hilos parece estar "orientado a la tecnología" y compartió las publicaciones para mostrar a los ciberdelincuentes menos capacitados técnicamente cómo utilizar las herramientas de inteligencia artificial para fines maliciosos, con ejemplos reales de cómo se puede hacer.

Un usuario publicó una secuencia de comandos de Python, que dijeron que era la primera secuencia de comandos que crearon. Después de una discusión con otro miembro del foro, dijeron que ChatGPT los ayudó a crearlo.

El análisis del script sugiere que está diseñado para cifrar y descifrar archivos, algo que con algo de trabajo podría convertirse en [ransomware](https://www.zdnet.com/article/ransomware-why-its-still-a-big -amenaza-y-hacia-adónde-van-las-pandillas/), lo que podría generar la posibilidad de que los ciberdelincuentes de bajo nivel desarrollen y distribuyan sus propias campañas de extorsión.

"Por supuesto, todo el código mencionado anteriormente se puede usar de manera benigna. Sin embargo, este script se puede modificar fácilmente para cifrar la máquina de alguien por completo sin ninguna interacción del usuario. Por ejemplo, puede convertir el código en ransomware si el script y los problemas de sintaxis se solucionan", dijo Check Point.

"Requerirá algunas mejoras en el código y la sintaxis, pero conceptualmente, cuando esté operativa, esta herramienta podría realizar acciones similares al ransomware", dijo Shykevich.

Pero no es solo el desarrollo de malware para lo que los ciberdelincuentes están experimentando con ChatGPT; en la víspera de Año Nuevo, un miembro del foro clandestino publicó un hilo que demostraba cómo habían usado la herramienta para crear scripts que podrían operar un mercado automatizado de la web oscura para comprar y [vender detalles de cuentas robadas] (https://www.zdnet .com/article/a-security-researcher-told-me-my-passwords-and-more-how-15-years-of-digital-footprints-left-me-exposed/) [información de la tarjeta de crédito] (https: //www.zdnet.com/article/my-stolen-credit-card-details-were-used-4500-miles-away-it-tried-to-find-out-how-happened/), malware y más.

El ciberdelincuente incluso mostró un fragmento de código que se generó utilizando una API de terceros para obtener precios actualizados de las criptomonedas Monero, Bitcoin y Ethereum como parte de un sistema de pago para un mercado de la web oscura.

Es difícil saber si la actividad cibernética maliciosa generada con la ayuda de ChatGPT está funcionando activamente porque, como explica Sykevich, "desde un punto de vista técnico, es extremadamente difícil saber si un malware específico se escribió usando ChatGPT o no".

Pero a medida que crezca el interés en ChatGPT y otras herramientas de inteligencia artificial, atraerán la atención de los ciberdelincuentes y estafadores que buscan explotar la tecnología para ayudar a realizar campañas maliciosas a bajo costo y con el menor esfuerzo necesario. ZDNET se ha puesto en contacto con OpenAI para hacer comentarios, pero aún no ha recibido una respuesta en el momento de la publicación.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e