Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2743

Loading...
Los clones de ChatGPT están inundando las tiendas de aplicaciones con estafas
inverse.com · 2023

Dicen que la imitación es la forma más alta de adulación, y en algunos casos eso puede ser cierto. Pero cuando se trata de ChatGPT, [OpenAI'](https://www.inverse.com/article/9195-elon -musk-openai-safe-ai-research)s buzzy new chatbot, no estoy seguro de que "adulación" sea la palabra adecuada.

Al igual que cualquier pieza nueva de tecnología, ChatGPT ahora está lidiando con el inevitable lado oscuro de su popularidad: docenas de clones de aplicaciones de mala calidad (y potencialmente peligrosos).

No, en serio, las tiendas de aplicaciones están inundadas de ellos:

La existencia de clones o imitaciones de ChatGPT: el mismo chatbot Microsoft se ha adoptado en dos importantes productos de software, Bing y Edge: no debería sorprendernos. Tecnologías como Stable Diffusion, e incluso el propio modelo generativo de OpenAI, DALL-E, generaron una moda similar de aplicaciones iterativas capaces de generar arte AI o editar fotos.

La diferencia, sin embargo, es que muchas de esas aplicaciones están (o estaban) al menos usando los modelos para los que fueron diseñadas. Sin embargo, en el caso de la oleada de clones de ChatGPT, OpenAI no ha puesto a disposición del público una API, lo que significa que cualquier aplicación que pretenda utilizar su tecnología para sus propios fines es una mentira rotunda.

Si tiene suerte, los clones como "ChatGPT - AI Chat, AI Friend" y "Chat GPT: AI ChatGOD basado en GPT" en Google Play Store al menos revelarán (después de una inspección) que están usando GPT-3, un modelo anterior y menos sofisticado de OpenAI. A diferencia de ChatGPT, GPT-3 sí tiene una API disponible.

La tienda de aplicaciones de Microsoft sufre un problema similar. El primer resultado después de buscar "ChatGPT" es una aplicación descargable llamada "ChatGPT·AI". La descripción correspondiente de la aplicación, ¡que cuesta $ 5.99! – está escrito en chino, pero esto es lo que ofrece un traductor rápido de Google:

ChatGPT·AI es una versión local optimizada de ChatGPT. Esta versión está optimizada a través de la base de datos, y las preguntas con respuestas existentes se extraen de la base de datos, lo que acorta mucho el tiempo de respuesta. Las nuevas preguntas se vuelven a analizar y se guardan en la base de datos para la siguiente pregunta. Filtre palabras prohibidas, etc., para cumplir con los requisitos de localización.

En la App Store de Apple, las cosas son un poco menos evidentes: las aplicaciones de imitación eluden cualquier conexión directa a ChatGPT y usan nombres como "Genie - AI Chatbot" y "Chat AI - Ask Anything". Algunos de ellos también pretenden usar los modelos GPT-3 de OpenAI.

Lo único peor que las aplicaciones falsas son los imitadores que usan el disfraz de ChatGPT para fines maliciosos. Como señaló BleepingComputer, el investigador de seguridad Dominic Alvieri ya llamó atención al hecho de que algunos clones de ChatGPT que se ofrecen en Play Store de Google provienen de los llamados "desarrolladores" directamente vinculados a las estafas de phishing.

Los investigadores de Cyble, una empresa de ciberseguridad, ya han identificado 50 aplicaciones que utilizan la imagen de ChatGPT para difundir estafas. Claramente, los estafadores de GPT no han perdido el tiempo.

No todos los clones de aplicaciones son totalmente maliciosos, obviamente, pero incluso los falsos apestan a estafa a medias. Algunos, con nombres como "Open Chat GBT", confían claramente en almas pobres y mal informadas para descargar la aplicación y, a veces, incluso gastan dinero real para funciones "premium".

E incluso si un imitador de ChatGPT no logra cobrar por funciones premium engañosas, los desarrolladores de estafas aún pueden ganar dinero solo con las descargas. Muchas aplicaciones imitadoras, relacionadas con ChatGPT o de otro tipo, están llenas de anuncios que permiten a los estafadores beneficiarse solo de las impresiones de anuncios.

Un-bot-hered

¿Nos sorprende que ChatGPT se esté utilizando como una oportunidad para estafar a la gente sin dinero? No, no particularmente. Es 2023: donde hay un testamento, hay una estafa. Pero el conocimiento, incluso el que no sorprende, es poder.

Por lo tanto, antes de ir a tu tienda de aplicaciones preferida y tocar el primer ícono con aspecto de ChatGPT que veas, debes saber que es, sin lugar a dudas, falso.

Por ahora, OpenAI no ofrece una aplicación oficial, aunque eso podría cambiar en el futuro. Aquí está la esperanza de que suceda más temprano que tarde: una aplicación verificada y confiable definitivamente podría ayudar a alejar a los usuarios desprevenidos de las estafas. Hasta entonces, parece que ChatGPT premium es el camino a seguir.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd