Incidentes Asociados

¡Bienvenido a The Cybersecurity 202! Accidentalmente provoqué algunos debates falsos con la charla de ayer. Para que conste, Beyond Burger is bueno, pero prefiero Impossible Burger. Además, a veces todavía me gusta la "carne falsa" que ni siquiera se esfuerza mucho por saber a carne, como una hamburguesa picante de frijoles negros.
Abajo: Grecia continúa lidiando con un escándalo de software espía, y las autoridades dicen que arrestaron a alguien que vendió datos sobre millones de austriacos. Primero:
Los piratas informáticos están utilizando este chatbot de IA como arma, pero solo puede hacer mucho, por ahora
Los usuarios de ChatGPT han utilizado el chatbot de inteligencia artificial para una amplia gama de tareas, empleándolo para [proyectos de ley](https://archive.is/o/NMh23/https://www.washingtonpost.com/politics/2023 /01/23/chatgpt-is-now-write-legislation-is-this-future/?itid=lk_inline_manual_6), [componer una canción de rap](https://archive.is/o/NMh23/https:// www.washingtonpost.com/opinions/interactive/2022/chatgpt-questions-predictions-ethics/?itid=lk_inline_manual_6) sobre las calificaciones del director ejecutivo de tecnología y [escriba una carta de presentación] (https://archive.is/o/NMh23/https ://www.washingtonpost.com/technology/2023/01/18/chatgpt-personal-use/?itid=lk_inline_manual_6) para solicitar un trabajo como consumidor profesional de alimentos para perros.
Naturalmente, la herramienta de IA también ha sido objeto de fascinación en el mundo de la ciberseguridad. Por ahora, el impacto potencial de ChatGPT en áreas como la creación de malware es real pero limitado, [concluye un informe](https://archive.is/o/NMh23/https://www.recordedfuture.com/i -chatbot) de Recorded Future esta mañana.
A los pocos días del lanzamiento de ChatGPT hace casi dos meses, el informe de Recorded Future encontró ejemplos en la web oscura de ciberdelincuentes que anuncian "malware con errores, pero funcional, tutoriales de ingeniería social, estafas y esquemas para ganar dinero, y más", todo habilitado por ChatGPT.
“Si bien ninguna de estas actividades ha alcanzado la gravedad del impacto del ransomware, la extorsión de datos, la denegación de servicio, el ciberterrorismo, etc., estos vectores de ataque siguen siendo posibilidades futuras”, se lee en el informe de la firma de ciberseguridad. Recorded Future también dijo que el material malicioso que examinaron no alcanza el calibre de malware que usarían los piratas informáticos respaldados por la nación, lo que apunta a limitaciones adicionales por el momento.
Los posibles usos cibernéticos de ChatGPT tampoco se limitan al malware. Incluyen aplicaciones como el desarrollo de señuelos de phishing y la difusión de información errónea, o incluso, en el otro lado de la moneda, ayudar a los ciberprofesionales a contrarrestar las ciberamenazas.
La información hasta ahora
El informe Recorded Future se basa en un cuerpo sólido de estudios y exámenes relacionados con la cibernética de ChatGPT y herramientas como esta:
- El mes pasado, la firma cibernética Check Point demostró cómo los investigadores podían usar ChatGPT para [generar cada paso del proceso](https://archive.is/o/NMh23/https://research.checkpoint.com/2022/opwnai- ai-that-can-save-the-day-or-hack-it-away/) mediante el cual los piratas informáticos infectan a las víctimas. Una investigación posterior de la empresa encontró ejemplos de cómo los piratas informáticos rusos estaban [intentando eludir las medidas de seguridad](https://archive.is/o/NMh23/https://blog.checkpoint.com/2023/01/13/russian- hackers-attempt-to-bypass-openais-restrictions-for-malicious-use-of-chatgpt/) de su desarrollador, OpenAI, que están destinados a evitar su abuso.
- Los propios investigadores de OpenAI colaboraron con la Universidad de Stanford y la Universidad de Georgetown, aunque principalmente antes del lanzamiento de ChatGPT, en un informe publicado este mes que [advierte sobre los peligros](https://archive.is/o/NMh23/https://openai. com/blog/forecasting-misuse/) de campañas de influencia asistidas por IA. El lunes, investigadores de NewsGuard, que monitorea la información errónea en línea, produjeron un estudio sobre la eficacia de ChatGPT en [escribir información errónea "elocuente, falsa y engañosa"] (https://archive.is/o/NMh23/https://www .washingtonpost.com/politics/learning-to-lie-ai-tools-adept-at-creating-disinformation/2023/01/24/0ddba552-9bf8-11ed-93e0-38551e88239c_story.html?itid=lk_inline_manual_18) 80 por ciento de el tiempo.
- Los investigadores de CyberArk la semana pasada llegaron a la conclusión de que ChatGPT [podría escribir malware](https://archive.is/o/NMh23/https://gizmodo.com/chatgpt-ai-polymorphic-malware-computer-virus -cyber-1850012195?utm_source=twitter&utm_medium=SocialMarketing&utm_campaign=dlvrit&utm_content=gizmodo) capaz de mutar su apariencia para esquivar la detección. Y los usuarios de Reddit se encuentran entre los que tienen [opciones cibernéticas colaborativas](https://archive.is/o/NMh23/https://blogs.blackberry.com/en/2023/01/chatgpt-and-cybersecurity-what-does -it-mean) para ChatGPT.
** Pero no todo es malo. Juan Andres Guerrero-Saade**, director sénior de SentinelLabs en la empresa de seguridad cibernética SentinelOne, le dijo a Katrina Manson de Bloomberg News que ChatGPT tiene más conocimientos sobre códigos informáticos que cuando se trata de intentar aprender los secretos de código.
"Realmente no hay tantos analistas de malware en el mundo en este momento", dijo. "Así que este es un multiplicador de fuerza considerable".
El material que Recorded Future encontró en la web oscura no era solo un estereotipo de fanfarronería cibernética, ya que la empresa pudo replicar el trabajo de forma independiente. Por supuesto, no estuvo completamente libre de autopromoción: algunos de los miembros del foro promocionaron los estudios mencionados anteriormente y artículos de noticias sobre ellos, para promocionar su buena fe.
Sin embargo, hubo límites en la calidad del malware habilitado para ChatGPT. "No creemos, en este momento, que los actores de los estados nacionales tengan un uso para ChatGPT que sea más efectivo que las herramientas y los recursos disponibles actualmente. para ellos", dijo Recorded Future.
Una de las lecciones más importantes de los estudios de ChatGPT hasta ahora es que importa muchísimo quién lo usa.
"Creemos que ChatGPT reduce la barrera de entrada para los actores de amenazas con habilidades de programación o habilidades técnicas limitadas", observó el informe de Recorded Future. "Para maximizar su uso, ChatGPT requiere al menos un nivel básico a intermedio de comprensión de los fundamentos de la ciberseguridad y la informática. ChatGPT no se puede usar de inmediato sin conocimientos previos".
O, como dijo Thomas Rid de Johns Hopkins después de varios días de clase con ChatGPT:
Los límites de hoy, sin embargo, no necesariamente significan límites de mañana.
"Con el desarrollo continuo de modelos avanzados de inteligencia artificial como ChatGPT, esperamos que estas tecnologías experimenten aumentos en velocidad, precisión y comprensión, lo que puede proporcionar una funcionalidad adicional para manejar tareas más complejas en el futuro", dijo Recorded Future en la conclusión de su informe.
"En particular, estas tareas podrían incluir el manejo de entradas de una amplia gama de tipos de datos, mucho más allá de los formatos simples basados en texto, lo que podría proporcionar a los malos actores vías adicionales para ensamblar rápidamente código u otra infraestructura maliciosa".