Incidentes Asociados

La llegada de ChatGPT ha asustado a los expertos en ciberseguridad. Algunos temen que el poderoso chatbot hará que sea mucho más fácil para los no programadores crear malware y [convertirse en ciberdelincuentes] (https://fortune.com/2023/01/26/ransomware-gang-hive-hackers-fbi/). Pero hasta ahora, dice una empresa de seguridad cibernética, ChatGPT puede estar teniendo un efecto contrario a la intuición en la piratería: estafas potenciadoras que no dependen de ningún tipo de código malicioso.
Max Heinemeyer, director de productos de la firma de seguridad cibernética Darktrace, con sede en el Reino Unido, dice que al observar el período de un mes desde que [ChatGPT alcanzó 1 millón de usuarios] (https://fortune.com/longform/chatgpt-openai-sam- altman-microsoft/) a principios de diciembre, ha habido pocos cambios en el número total de intentos de ciberataques dirigidos a los clientes de Darktrace. Pero Darktrace ha visto un cambio distinto en las tácticas utilizadas por los ciberdelincuentes.
Los enlaces maliciosos en los correos electrónicos de phishing se redujeron del 22 % de los casos a solo el 14 %, dice Heinemeyer. Pero la complejidad lingüística promedio de los correos electrónicos de phishing encontrados por Darktrace aumentó un 17%.
La teoría de trabajo de la empresa: los ciberdelincuentes están comenzando a usar ChatGPT para crear [correos electrónicos de phishing] mucho más convincentes (https://fortune.com/recommends/banking/common-banking-scam-and-fraud-tactics-to-avoid/) —aquellos que son tan buenos que los ciberdelincuentes ni siquiera necesitan confiar en incrustar malware en archivos adjuntos o enlaces. Después de todo, los enlaces maliciosos o el malware incrustado a menudo pueden ser detectados y detenidos por software de ciberseguridad como el de Darktrace.
Lo que es mucho más difícil de detener son los ataques que se basan completamente en el engaño tradicional o "ingeniería social". Un correo electrónico que está escrito de manera tan convincente que el destinatario cree que proviene de una fuente confiable es una excelente manera de llevar a cabo un fraude de pagos automáticos autorizado, por ejemplo. Se engaña a la víctima para que envíe fondos para pagar lo que cree que es una transacción o factura legítima, pero en realidad está enviando el dinero directamente a la cuenta de un estafador.
En algunos casos, dice Heinemeyer, los delincuentes pueden estar preparando el escenario para estafas más largas que implican ganarse la confianza de las víctimas durante un período de tiempo y pueden implicar suplantaciones sofisticadas de ejecutivos o clientes reales.
Un regalo para los piratas informáticos que no hablan inglés como lengua materna
Además de I.A. herramientas de escritura como ChatGPT, otros nuevos generadores de I.A. podrían utilizarse herramientas para incitar tales estafas. AI. El software, como el de la incipiente empresa Eleven Labs, ahora puede crear clones de voz realistas después de haber sido entrenado en grabaciones de la voz de un objetivo que pueden durar solo unos segundos. Mientras tanto, el software de generación de texto a imagen, como Stable Diffusion, puede crear deepfakes cada vez más realistas con una fracción de los datos de entrenamiento que antes se requerían para otros métodos de deepfake.
Los fraudes basados en correos electrónicos comerciales comprometidos han ido en aumento durante los últimos cuatro o cinco años, dice Evan Reiser, fundador y director ejecutivo de ciberseguridad Abnormal. Y aunque dice que su empresa aún no ha visto ningún aumento en este tipo de ataques desde que debutó ChatGPT, cree que es posible que los delincuentes, especialmente aquellos cuyo idioma nativo no es el inglés, se sientan tentados a usar la herramienta para crear correos electrónicos que son es menos probable que levante banderas rojas con víctimas potenciales debido a expresiones poco gramaticales o poco coloquiales. “Cualquier herramienta que los humanos perciban como auténtica empeorará el [fraude]”, dice Reiser.
Él dice que esto es especialmente cierto en los sistemas en los que están explícitamente entrenados para producir texto en un estilo particular, voces sintetizadas o imágenes con la intención de engañar a las personas. Pero también dice que, a menudo, los trucos más simples (solo un correo electrónico muy breve que parece provenir de una persona de confianza) funcionan lo suficientemente bien y que los delincuentes generalmente gravitan hacia los métodos que son más simples y requieren el menor esfuerzo. “Puedes enviar correos electrónicos tontos y estúpidos y ganar millones de dólares”, dice. "¿Por qué pasar por la molestia y el esfuerzo de entrenar modelos [A.I.] para hacer eso".
A raíz del lanzamiento de ChatGPT, algunas empresas de ciberseguridad dieron la alarma de que la A.I. podría hacer diabólicamente fácil llevar a cabo un ataque cibernético. Maya Horowitz, vicepresidenta de investigación de la firma de seguridad cibernética Checkpoint, dice que su equipo pudo hacer que ChatGPT generara cada etapa de un ataque cibernético, comenzando con un correo electrónico de phishing mejor que el promedio, pero luego continuando con la escritura del software. código para un ataque de malware y ser capaz de descubrir cómo incrustar ese código en un archivo adjunto de correo electrónico de aspecto inocuo. Horowitz dijo que temía que ChatGPT y otros modelos de lenguaje generativo generaran muchos más ataques cibernéticos.
Pero el mismo tipo de modelos de lenguaje extenso que potencia ChatGPT también se puede usar para ayudar a las empresas de ciberseguridad a defenderse de los ataques. Abnormal utiliza algunos modelos de lenguaje, como el modelo de lenguaje BERT de Google, para ayudar a determinar cuál es la intención de un correo electrónico. Si un correo electrónico le pide a una persona que pague por algo y pone a esa persona bajo presión de tiempo, diciendo que es urgente o que debe hacerse lo antes posible, entonces eso podría ser una señal de alerta, dice Reiser. Los modelos de lenguaje también pueden leer archivos adjuntos y ver si coinciden con la forma y el estilo de las facturas anteriores, o si la empresa que realiza la facturación es una con la que la empresa ha interactuado anteriormente. Incluso puede ver si los números de cuenta parecen coincidir con los que se han utilizado anteriormente. (Abnormal incluso analiza cosas como si un archivo adjunto de correo electrónico tiene fuentes que coinciden con las vistas previamente de esa empresa y analiza los metadatos de los documentos en busca de posibles señales de que algo sospechoso está sucediendo, dice Reiser).
Sin embargo, gran parte de lo que hace Abnormal es observar patrones en una gran cantidad de funciones y usar modelos de aprendizaje automático para determinar si alcanzan el umbral en el que se debe bloquear el correo electrónico y alertar al equipo de seguridad de una empresa. Casi siempre hay algo que delatará un intento de phishing si sabe dónde buscar, dice Reiser. Incluso en el caso de que una cuenta de correo electrónico comercial legítima se haya visto comprometida, el atacante a menudo tomará medidas, como realizar múltiples búsquedas en el historial de la cuenta o usar una API para controlar la cuenta en lugar de un teclado de PC, que proporcionará una señal. que algo no está bien.
Nicole Eagan, directora de estrategia de Darktrace, dice que la propia Darktrace ha estado utilizando el mismo tipo de modelos de lenguaje extenso que sustentan a ChatGPT para crear correos electrónicos de phishing selectivo más creíbles que la empresa utiliza en ejercicios internos de "equipo rojo" para probar sus propias prácticas de ciberseguridad. Eagan dice que recientemente se enamoró de uno de estos, que se insertó directamente en la cadena de correo electrónico real que estaba teniendo con un reclutador externo que utilizó Darktrace.
(Darktrace pasó gran parte de la semana pasada tratando de demostrar que un tipo diferente de patrón no indicaba que estaba pasando algo sospechoso: el precio de las acciones de la compañía cayó drásticamente después de que el vendedor en corto Quintessential Capital Management emitiera un informe afirmando que había encontrado evidencia de que la compañía de seguridad cibernética podría haberse involucrado en prácticas contables dudosas para tratar de inflar sus ingresos y rentabilidad antes de su oferta pública inicial de 2021. Darktrace ha negado las acusaciones en el informe, diciendo que el fondo de cobertura nunca lo contactó antes de publicar su informe y que tiene "plena confianza". ” en sus prácticas contables y la “integridad de nuestros estados financieros auditados de forma independiente”).