Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2479

Incidentes Asociados

Incidente 44325 Reportes
ChatGPT Abused to Develop Malicious Softwares

Loading...
Armados con ChatGPT, los ciberdelincuentes construyen malware y trazan bots femeninos falsos
forbes.com · 2023

Los piratas informáticos están probando la capacidad de ChatGPT para crear chatbots femeninos como parte de sus esfuerzos para estafar a los hombres atraídos por la personalidad digital.

Los ciberdelincuentes han comenzado a utilizar ChatGPT, el chatbot artificialmente inteligente de OpenAI, para crear rápidamente herramientas de piratería, advirtieron investigadores de ciberseguridad el viernes. Los estafadores también están probando la capacidad de ChatGPT para construir otros chatbots diseñados para hacerse pasar por mujeres jóvenes para atrapar a sus objetivos, dijo a Forbes un experto que monitorea foros criminales.

Muchos de los primeros usuarios de ChatGPT habían dado la alarma de que la aplicación, que se volvió viral en los días posteriores a su lanzamiento en diciembre, podría codificar software malicioso capaz de espiar las pulsaciones de teclado de los usuarios o crear ransomware.

Los foros criminales clandestinos finalmente se han puesto de moda, según un informe de la empresa de seguridad israelí Check Point. En una publicación del foro revisada por Check Point, un pirata informático que previamente había compartido malware de Android mostró un código escrito por ChatGPT que robó archivos de interés, los comprimió y los envió a través de la web. Mostraron otra herramienta que instalaba una puerta trasera en una computadora y podía cargar más malware a una PC infectada.

En el mismo foro, otro usuario compartió un código de Python que podía encriptar archivos y dijo que la aplicación de OpenAI les ayudó a construirlo. Afirmaron que era el primer guión que habían desarrollado. Como señaló Check Point en su informe, dicho código se puede usar con fines totalmente benignos, pero también podría "modificarse fácilmente para cifrar la máquina de alguien por completo sin ninguna interacción del usuario", similar a la forma en que funciona el ransomware. El mismo usuario del foro había vendido previamente acceso a servidores de la empresa pirateados y datos robados, señaló Check Point.

Un usuario también habló sobre el "abuso" de ChatGPT al hacer que ayudara a codificar funciones de un mercado de la web oscura, similar a los bazares de drogas como Silk Road o Alphabay. Como ejemplo, el usuario mostró cómo el bot de chat podría crear rápidamente una aplicación que monitoreara los precios de las criptomonedas para un sistema de pago teórico.

Alex Holden, fundador de la empresa de inteligencia cibernética Hold Security, dijo que también había visto a estafadores de citas comenzar a usar ChatGPT, mientras intentaban crear personajes convincentes. “Están planeando crear chatbots para hacerse pasar por chicas en su mayoría para ir más allá en los chats con sus marcas”, dijo. “Están tratando de automatizar la charla inactiva”.

OpenAI no había respondido a una solicitud de comentarios en el momento de la publicación.

Si bien las herramientas codificadas por ChatGPT parecían "bastante básicas", Check Point dijo que era solo cuestión de tiempo hasta que los piratas informáticos más "sofisticados" encontraran una manera de aprovechar la IA. Rik Ferguson, vicepresidente de inteligencia de seguridad de la empresa estadounidense de ciberseguridad Forescout, dijo que no parecía que ChatGPT aún fuera capaz de codificar algo tan complejo como las principales cepas de ransomware que se han visto en incidentes de piratería importantes en los últimos años, como [ Conti, infame por su uso en la violación del sistema nacional de salud de Irlanda](https://www.forbes.com/sites/thomasbrewster/2022/02/28/a-ransomware-crew-pledged-allegiance-to-russia- ahora-sus-datos-han-sido-filtrados-por-un-hacker-pro-ucrania/). Sin embargo, la herramienta de OpenAI reducirá la barrera de entrada para que los novatos ingresen a ese mercado ilícito mediante la creación de malware más básico, pero igualmente efectivo, agregó Ferguson.

Expresó una preocupación adicional de que, en lugar de crear un código que robe los datos de las víctimas, ChatGPT también podría usarse para ayudar a crear sitios web y bots que engañan a los usuarios para que compartan su información. Podría "industrializar la creación y personalización de páginas web maliciosas, campañas de phishing altamente dirigidas y estafas basadas en ingeniería social", agregó Ferguson.

Sergey Shykevich, investigador de inteligencia de amenazas de Check Point, dijo a Forbes que ChatGPT será una "gran herramienta" para que los piratas informáticos rusos que no dominan el inglés creen correos electrónicos de phishing que parezcan legítimos.

En cuanto a las protecciones contra el uso delictivo de ChatGPT, Shykevich dijo que, en última instancia, y "desafortunadamente", tendrá que hacerse cumplir con la regulación. OpenAI ha implementado algunos controles, evitando solicitudes obvias de ChatGPT para crear spyware con advertencias de violación de políticas, aunque [hackers y periodistas han encontrado formas] (https://www.bleepingcomputer.com/news/technology/openais-new-chatgpt-bot -10-cosas-peligrosas-de-las-que-es-capaz/) para eludir esas protecciones. Shykevich dijo que es posible que las empresas como OpenAI tengan que estar legalmente obligadas a entrenar su IA para detectar dicho abuso.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd