Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2749

Incidentes Asociados

Incidente 44325 Reportes
ChatGPT Abused to Develop Malicious Softwares

Loading...
Es aterrador Fácil de usar ChatGPT para escribir correos electrónicos de phishing
cnet.com · 2023

Para que conste, ChatGPT no me escribió un correo electrónico de phishing cuando se lo pedí. De hecho, me dio un sermón muy severo sobre por qué el phishing es malo.

Llamó al phishing una "actividad maliciosa e ilegal que tiene como objetivo engañar a las personas para que proporcionen información confidencial, como contraseñas, números de tarjetas de crédito y datos personales", y agregó que, como modelo de lenguaje de IA, está programado para "evitar participar en actividades que puedan dañar personas o causar daño al público”.

Dicho esto, la herramienta gratuita de inteligencia artificial que ha arrasado en todo el mundo no tuvo problemas para escribir una nota de soporte técnico muy convincente dirigida a mi editor pidiéndole que descargue e instale inmediatamente una actualización incluida en el sistema operativo de su computadora. (En realidad, no lo envié, por temor a invocar la ira del departamento de TI de mi empresa).

Pero el ejercicio fue una potente ilustración de cómo ChatGPT, y la inteligencia artificial en general, podrían ser de gran ayuda para los estafadores y piratas informáticos en el extranjero cuyos intentos de phishing pueden haber sido descubiertos previamente por sus errores gramaticales o su inglés deficiente. Los expertos dicen que estos correos electrónicos generados por IA también tienen más probabilidades de superar los filtros de correo electrónico del software de seguridad.

Los peligros de seguridad van mucho más allá del phishing. Según investigadores de la empresa de ciberseguridad Check Point, los ciberdelincuentes intentan usar ChatGPT para escribir malware, mientras que otros los expertos dicen que el código no malicioso escrito con él podría ser de menor calidad que el código creado por un ser humano, lo que lo hace susceptible de explotación.

Pero, dicen los expertos, no culpe a la IA.

"No es bueno o malo", dijo Randy Lariar, director de práctica de big data, IA y análisis de la empresa de ciberseguridad Optiv. "Es solo una herramienta que hace que sea más fácil y menos costoso para los buenos y los malos hacer las cosas que ya están haciendo".

Una carrera armamentista de IA

Si bien las empresas de seguridad cibernética han promocionado durante mucho tiempo la IA y el aprendizaje automático como una forma innovadora de impulsar las defensas en línea automatizadas y ayudar a llenar los vacíos en la fuerza laboral de la industria, la mayor disponibilidad de este tipo de tecnología a través de herramientas como ChatGPT solo hará que sea más fácil para los delincuentes lanzar más ciberataques.

Algunos expertos también están preocupados por las posibles implicaciones en la privacidad de los datos, tanto para las empresas como para el consumidor medio. Si bien los datos con los que se entrenó la IA de ChatGPT generalmente se consideran públicos y están disponibles en línea, podría decirse que son mucho más accesibles de lo que solían ser.

Además, los usuarios de la tecnología deberán tener cuidado con la información que alimentan a la IA, porque una vez que lo hagan, se convertirá en parte de la base de datos masiva de ChatGPT, y tendrán poco o ningún control sobre con quién se comparte o cómo es. usado después de eso.

OpenAI, la empresa detrás de ChatGPT, no respondió a un correo electrónico en busca de comentarios.

Si bien hay barandillas integradas para evitar que los ciberdelincuentes usen ChatGPT con fines nefastos, están lejos de ser infalibles. Una solicitud para escribir una carta solicitando ayuda financiera para huir de Ucrania fue marcada como una estafa y denegada, al igual que una solicitud para una cita romántica. Pero pude usar ChatGPT para escribir una carta falsa a mi editor informándole que había ganado el premio mayor de la Lotería del Estado de Nueva York.

Los expertos advierten que ChatGPT no siempre es preciso, e incluso Sam Altman, CEO de OpenAI, que creó el chatbot, dijo que no debería usarse para "nada importante en este momento". Pero a los ciberdelincuentes generalmente no les preocupa que su código sea 100 % perfecto, por lo que los problemas de precisión no son un problema para ellos, según José López, científico principal de datos e ingeniero de aprendizaje automático de la empresa de seguridad de correo electrónico Mimecast.

Lo que les preocupa es la velocidad y la productividad.

"Si eres un codificador promedio, no te transformarás en un súper hacker de la noche a la mañana", dijo López. "Su principal potencial es como amplificador".

Esa amplificación podría significar que los ciberdelincuentes usen la tecnología para configurar innumerables chats en línea con víctimas desprevenidas, buscando atraerlas a [estafas románticas] (https://www.cnet.com/tech/services-and-software/valentines-day- las estafas románticas no se enamoren de ellas/), dijo. Este tipo de estafas no son infrecuentes, pero tradicionalmente han requerido mucho trabajo y atención práctica por parte de los estafadores. Los chatbots impulsados por IA podrían cambiar eso.

Cuidado con tus datos

Si bien las preocupaciones sobre la privacidad de los datos sobre la IA no son nuevas, el debate sobre el uso de la tecnología de IA en [tecnología de reconocimiento facial] (https://www.cnet.com/news/privacy/clearview-ai-to-stop-selling- facial-recognition-database-to-private-companies/) se ha desatado durante años: la explosiva popularidad de ChatGPT ha renovado la necesidad de recordar a las personas sobre las trampas de datos personales en las que pueden caer.

Las preocupaciones sobre los modelos de lenguaje como ChatGPT pueden no ser tan obvias, pero son igual de significativas, dijo John Gilmore, jefe de investigación de Abine, propietario de DeleteMe, un servicio que ayuda a las personas a eliminar información de las bases de datos.

Gilmore señaló que los usuarios no tienen ningún derecho en lo que respecta a lo que hace ChatGPT con los datos que recopila de ellos o con quién los comparte. Cuestionó cómo ChatGPT podría alguna vez cumplir con las leyes de privacidad de datos como el Reglamento General de Protección de Datos de la UE, mejor conocido como [GDPR] (https://www.cnet.com/news/privacy/what-gdpr-means-for-facebook -google-the-eu-us-and-you/), dada la falta de herramientas de transparencia.

A medida que el uso de la IA se extiende a otras tecnologías donde su uso puede ser menos obvio, Gilmore dijo que dependerá de los consumidores controlar qué datos entregan.

La información confidencial o patentada, por ejemplo, nunca debe ingresarse en aplicaciones o sitios de IA y eso incluye solicitudes de ayuda con cosas como solicitudes de empleo o formularios legales.

"Si bien puede ser tentador recibir consejos basados en IA para obtener beneficios a corto plazo, debe tener en cuenta que, en el proceso, está entregando ese contenido a todos", dijo Gilmore.

Lariar de Optiv dijo que dada la novedad de los modelos de lenguaje de IA, aún queda mucho por decidir en lo que respecta a la legalidad y los derechos del consumidor. Comparó las plataformas de inteligencia artificial basadas en lenguaje con el auge de las industrias de transmisión de video y música, prediciendo que habrá una gran cantidad de demandas presentadas antes de que todo se resuelva.

Mientras tanto, la IA basada en lenguaje no va a desaparecer. En cuanto a cómo protegerse contra quienes lo usarían para delitos cibernéticos, Lariar dijo que como todo en seguridad, comienza con lo básico.

“Esta es una llamada de atención para todos los que no están invirtiendo en sus programas de seguridad como deberían”, dijo. "La barrera de entrada es cada vez más baja para ser pirateado y phishing. La IA solo aumentará el volumen".

Nota de los editores: CNET está utilizando un motor de IA para crear algunos explicadores de finanzas personales que nuestros editores editan y verifican. Para obtener más información, consulte [esta publicación] (https://www.cnet.com/tech/cnet-is-testing-an-ai-engine-heres-what-weve-learned-mistakes-and-all/).

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd