Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2483

Incidentes Asociados

Incidente 44325 Reportes
ChatGPT Abused to Develop Malicious Softwares

Loading...
Los ciberdelincuentes le dicen a ChatGPT que cree código malicioso
theregister.com · 2023

Los ciberdelincuentes están comenzando a utilizar la popular tecnología ChatGPT de OpenAI para desarrollar rápida y fácilmente código con fines maliciosos.

Un giro alrededor de los sitios de piratería clandestinos descubrió instancias iniciales de malhechores que desarrollaban herramientas de amenazas cibernéticas utilizando la interfaz de modelo de lenguaje grande (LLM) que la compañía presentó a fines de noviembre y la abrió para uso público, según el equipo de seguridad de la información Check Point Research.

Similar al auge de los modelos como servicio en el mundo del cibercrimen, ChatGPT abre otra vía para delincuentes menos calificados para lanzar ciberataques con facilidad, dijeron los investigadores en un informe el viernes.

"Como sospechábamos, algunos de los casos mostraron claramente que muchos ciberdelincuentes que usan OpenAI no tienen ninguna habilidad de desarrollo", escribieron. "Aunque las herramientas que presentamos en este informe son bastante básicas, es solo cuestión de tiempo hasta que los actores de amenazas más sofisticados mejoren la forma en que usan las herramientas basadas en IA para hacer el mal".

No olvidemos que ChatGPT también es conocido por generar código con errores: Stack Overflow tiene [software prohibido] (https://www.theregister.com/2022/12/05/stack_overflow_bans_chatgpt/) generado por el sistema de IA porque a menudo tiene fallas graves . Pero la tecnología está mejorando y el mes pasado un informe del gobierno finlandés advirtió Los sistemas de IA ya están en uso para la ingeniería social y en cinco años podrían impulsar una gran oleada de ataques.

Las [capacidades] de aprendizaje automático de ChatGPT (https://www.theregister.com/2023/01/04/microsoft_openai_chatgpt_bing/) permiten que la herramienta basada en texto interactúe de manera conversacional, con los usuarios escribiendo una pregunta y recibiendo una respuesta en un formato de diálogo. La tecnología también puede responder preguntas de seguimiento y desafiar las respuestas de los usuarios.

La sofisticación de la oferta de OpenAI ha generado tanto preocupación como entusiasmo, con instituciones educativas, organizadores de conferencias y otros grupos moviéndose para prohibir el uso de ChatGPT para todo, desde trabajos escolares hasta trabajos de investigación.

En diciembre, los analistas demostraron cómo se puede usar ChatGPT para crear todo un flujo de infección, desde correos electrónicos de phishing hasta ejecutar un shell inverso. También usaron el chatbot para crear malware de puerta trasera que puede ejecutar secuencias de comandos dinámicamente creadas por la herramienta de IA. Al mismo tiempo, mostraron cómo puede ayudar a los profesionales de la ciberseguridad en su trabajo.

Ahora los ciberdelincuentes lo están probando.

Un hilo titulado "ChatGPT - Beneficios del malware" apareció el 29 de diciembre en un foro de piratería clandestino ampliamente utilizado escrito por una persona que dijo que estaba experimentando con la interfaz para recrear cepas y técnicas de malware comunes. El escritor mostró el código de un ladrón de información basado en Python que busca y copia tipos de archivos y los carga en un servidor FTP codificado.

Check Point confirmó que el código era de un malware de ladrón básico.

En otra muestra, el escritor usó ChatGPT para crear un fragmento de Java simple que descarga un cliente SSH y telnet común que se ejecuta en secreto en un sistema que usa PowerShell.

"Este individuo parece ser un actor de amenazas orientado a la tecnología, y el propósito de sus publicaciones es mostrar a los ciberdelincuentes menos capacitados técnicamente cómo utilizar ChatGPT con fines maliciosos, con ejemplos reales que pueden usar de inmediato", escribieron los investigadores.

El 21 de diciembre, una persona que se hace llamar USDoD publicó una herramienta de cifrado escrita en Python que incluye varias operaciones de cifrado, descifrado y firma. Escribió que la tecnología de OpenAI le dio una "buena [ayuda] mano para terminar el guión con un buen alcance".

Los investigadores escribieron que USDoD tiene habilidades de desarrollo limitadas pero está activo en la comunidad clandestina con un historial de venta de acceso a organizaciones comprometidas y bases de datos robadas.

Otro hilo de discusión publicado en un foro en la víspera de Año Nuevo habló sobre lo fácil que es usar ChatGPT para crear un mercado web oscuro para intercambiar herramientas ilegales como malware o drogas y datos robados como cuentas y tarjetas de pago.

El escritor del hilo publicó un código creado con ChatGPT que utiliza API de terceros para obtener precios actualizados de criptomonedas como Bitcoin, Monero y Ethereum para el sistema de pago del mercado.

Esta semana, los delincuentes hablaron en foros clandestinos sobre otras formas de aprovechar ChatGPT para varios esquemas, incluido su uso con la tecnología Dall-E 2 de OpenAI para crear arte para vender en línea a través de sitios legítimos como Etsy y crear un libro electrónico o un capítulo breve sobre un tema específico. que se pueden vender en línea.

Para obtener más información sobre cómo se puede abusar de ChatGPT, los investigadores le preguntaron a ChatGPT. En su respuesta, ChatGPT habló sobre el uso de la tecnología de inteligencia artificial para crear correos electrónicos de phishing y publicaciones en redes sociales convincentes para engañar a las personas para que proporcionen información personal o para que hagan clic en enlaces maliciosos o para crear videos y audio que podrían usarse para desinformación.

ChatGPT también defendió a su creador.

"Es importante tener en cuenta que OpenAI en sí no es responsable de ningún abuso de su tecnología por parte de terceros", dijo el chatbot. "La compañía toma medidas para evitar que su tecnología se use con fines maliciosos, como exigir a los usuarios que acepten los términos del servicio que prohíben el uso de su tecnología con fines ilegales o dañinos".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd