Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6144

Incidentes Asociados

Incidente 11865 Reportes
Reported Public Exposure of Over 100,000 LLM Conversations via Share Links Indexed by Search Engines and Archived

Loading...
143.000 chats de Claude, Copilot, ChatGPT, accesibles públicamente. ¿Te expusieron?
obsidiansecurity.com · 2025

Qué sucedió:Un investigador de seguridad descubrió que más de 143 000 conversaciones de usuarios con chatbots GenAI, incluyendo Claude, Copilot y ChatGPT, son de acceso público en Archive.org. Este descubrimiento se produce poco después de las recientes revelaciones de que las consultas de ChatGPT estaban siendo indexadas por motores de búsqueda como Google. Incidentes como estos siguen generando preocupación por la fuga de datos y la exposición involuntaria de información confidencial a través de plataformas de IA.

**Análisis a fondo del incidente:**En una publicación reciente del blog, el investigador de seguridad dead1nfluence describe cómo descubrió enlaces compartibles desde plataformas como Grok, ChatGPT, Copilot, Claude, Mistral y Qwen.

  • El investigador identificó primero que se podía acceder a los enlaces archivados de ChatGPT a través de una API pública proporcionada por Wayback Machine.
  • Al consultar este endpoint, obtuvo una lista completa de URL de conversaciones LLM compartidas.
  • Mediante herramientas básicas de línea de comandos (como wget y grep), descargaron y categorizaron los enlaces por proveedor.
  • Cada plataforma LLM utilizaba un mecanismo diferente para mostrar el contenido compartido, desde el acceso público directo hasta la necesidad de llamadas a la API de backend. - Una vez identificados los endpoints apropiados, las URL se prepararon programáticamente para su recopilación masiva.
  • En total, se recuperaron 143.000 conversaciones LLM de acceso público de múltiples proveedores.
  • El investigador también investigó si el contenido expuesto podría ser útil para un atacante, lo que finalmente reveló ID de clave de acceso de AWS, un token de API de replicación y más.

**Por qué es importante:**Investigaciones de seguridad como esta demuestran los graves riesgos para la IA y la privacidad de los datos, especialmente para las organizaciones que adoptan LLM en flujos de trabajo sensibles. Incluso si los usuarios no tienen la intención de compartir información confidencial de forma maliciosa, las solicitudes suelen contener contexto empresarial exclusivo, información personal identificable (PII) y propiedad intelectual. Si estas conversaciones se archivan y se hacen públicas, esa información podría quedar expuesta a cualquier persona.

**Retrocediendo:**Las herramientas de IA generativa permiten a los usuarios actuar con rapidez, pero también introducen nuevos riesgos, a menudo ocultos, en torno a la exposición de datos.

  • **Es posible que los usuarios no comprendan completamente adónde van sus datos después de interactuar con un sistema de IA. **En este caso, algo tan simple como compartir una conversación de chatbot mediante un enlace puede provocar que ese contenido se archive o indexe permanentemente en los motores de búsqueda, incluso si solo estaba destinado a ser revisado por un compañero.
  • **Las empresas no tienen una idea clara de cómo y dónde fluyen sus datos cuando interactúan con plataformas de IA de terceros. **Sin las medidas de seguridad adecuadas, la información empresarial confidencial puede escapar fácilmente del control de la organización. Esto crea exposición a daños a la reputación, infracciones regulatorias, actividades cibercriminales y pérdida a largo plazo de información empresarial confidencial.

Estrategias generales de seguridad:

  • Definir y aplicar políticas de uso de IA:

  • Definir claramente qué tipos de datos se pueden y no se pueden introducir en las herramientas GenAI

  • Restringir el uso de plataformas LLM públicas para datos sensibles, confidenciales o regulados

  • Establecer un proceso de aprobación para la adopción interna de nuevas herramientas de IA

  • Garantizar la visibilidad de las herramientas de IA ocultas (aquellas que el departamento de TI o seguridad desconoce)

  • Supervisar y auditar el uso de IA

  • Rastrear quién utiliza las herramientas de IA y con qué propósito

  • Registrar y analizar la actividad relacionada con la IA

  • Informar a los usuarios sobre los riesgos del uso de herramientas de IA

Para clientes de Obsidian:

  • Inventariar todo el uso de IA, incluida la IA oculta

  • Para cada aplicación de IA, rastrear y gestionar la adopción, comprender los patrones de uso y evaluar los niveles de riesgo

  • Restringir el acceso a plataformas de IA no aprobadas, evitando que los empleados utilicen herramientas de alto riesgo o no oficiales

  • Implementar los controles de seguridad de Obsidian:

  • Interceptar las solicitudes con datos sensibles antes de que se envíen a herramientas de IA de terceros. - Bloquear envíos que contengan información clasificada o confidencial, incluso cuando se acceda a las herramientas GenAI a través de cuentas personales o no administradas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd