Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2742

Loading...
No se deje engañar: el malware ChatGPT está proliferando
digitaltrends.com · 2023

El malware y las estafas para ChatGPT siguen siendo más frecuentes a medida que aumenta el interés por el chatbot desarrollado por OpenAI. se expande

Ha habido varios casos de malos actores que se han aprovechado de la popularidad de ChatGPT desde su presentación en noviembre de 2022. Muchos han estado usando interfaces falsas de ChatGPT para [estafar a usuarios móviles desprevenidos] (https://www.digitaltrends.com/computing /chatgpt-scam-duped-miles-en-pagar/) sin dinero o infectar dispositivos con malware. La amenaza más reciente es una combinación de ambas, con piratas informáticos que apuntan a usuarios de Windows y Android a través de páginas de phishing y con el objetivo de robar sus datos privados, que podrían incluir tarjetas de crédito y otra información bancaria, según [Bleeping Computer] (https://www. .bleepingcomputer.com/news/security/hackers-use-fake-chatgpt-apps-to-push-windows-android-malware/).

El investigador de seguridad Dominic Alvieri observó por primera vez la actividad sospechosa de chat-gpt-pc.online, un dominio que alojaba un malware de robo de información llamado Redline, que se hacía pasar por una descarga de ChatGPT para escritorio de Windows. El sitio web, que presentaba la marca ChatGPT, se anunciaba en una página de Facebook como un enlace legítimo de OpenAI para persuadir a las personas de que accedieran al nefasto sitio.

Alvieri descubrió que también había aplicaciones falsas de ChatGPT en Google Play y otras tiendas de aplicaciones de Android de terceros, que podían enviar malware a los dispositivos si se descargaban.

Otros investigadores han respaldado las afirmaciones iniciales y han encontrado otro malware que ejecuta diferentes campañas maliciosas. Los investigadores de Cyble descubrieron chatgpt-go.online, que envía malware que "roba contenido del portapapeles", incluido ladrón de Aurora. Otro dominio llamado chat-gpt-pc[.]online envía un malware llamado Lumma Stealer. Otro más llamado openai-pc-pro[.]online, malware que aún no ha sido identificado.

Cyble también conectó el dominio pay.chatgptftw.com a una página de robo de tarjetas de crédito que se hace pasar por una página de pago para ChatGPT Plus.

Mientras tanto, Cyble dijo que ha descubierto más de 50 aplicaciones móviles dudosas que se hacen pasar por ChatGPT usando su marca o un nombre que podría confundir fácilmente a los usuarios. El equipo de investigación dijo que se ha determinado que todos son falsos y dañinos para los dispositivos. Una es una aplicación llamada chatGPT1, que es una aplicación de fraude de facturación por SMS que probablemente roba información de tarjetas de crédito similar a la descrita anteriormente. Otra aplicación es AI Photo, que aloja el malware Spynote que puede acceder y "robar registros de llamadas, listas de contactos, SMS y archivos" de un dispositivo.

La afluencia de malware y estafadores pagados comenzó cuando OpenAI [comenzó a acelerar las velocidades] (https://www.digitaltrends.com/computing/chatgpt-is-at-capacity-and-is-frustrating-new-people-everywhere/) y acceso a ChatGPT debido a su creciente popularidad. Las primeras aplicaciones móviles pagas falsas llegaron a las tiendas Apple App y Google Play en diciembre de 2020, pero no llamaron la atención de los medios hasta casi un mes después, a mediados de enero. El primer gran hackeo conocido de ChatGPT pronto siguió a mediados de febrero. Los malos actores usaron la API OpenAI GPT-3 para crear una versión oscura de ChatGPT que puede generar correos electrónicos de phishing y scripts de malware. Los bots funcionan a través de la aplicación de mensajería Telegram.

Ahora, parece ser temporada abierta para falsificaciones y alternativas desde que OpenAI introdujo su nivel ChatGPT Plus pagado por $ 20 por mes a partir del 10 de febrero. Sin embargo, los usuarios deben tener cuidado de que el chatbot sigue siendo una herramienta basada en navegador a la que solo se puede acceder en chat.openai.com. Actualmente no hay aplicaciones móviles o de escritorio disponibles para ChatGPT en ningún sistema.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd