Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6121

Incidentes Asociados

Incidente 11792 Reportes
McDonald's McHire AI Recruitment Platform Reportedly Exposed Data of 64 Million Applicants via Default Login and API Vulnerability

Loading...
La contraseña «123456» de la herramienta de contratación de inteligencia artificial de McDonald’s expuso los datos de 64 millones de solicitantes.
csoonline.com · 2025

Se detectó un fallo de seguridad en "McHire", la plataforma de contratación basada en IA de McDonald's, que expuso datos confidenciales de hasta 64 millones de solicitantes de empleo.

Descubierto a finales de junio de 2025 por los investigadores de seguridad Ian Carroll y Sam Curry, el problema residía en un inicio de sesión de administrador predeterminado y una referencia directa a objeto (IDOR) insegura en una API interna que permitía acceder al historial de chat de los solicitantes con "Olivia", el bot de reclutamiento automatizado de McHire.

"La filtración de McDonald's confirma que incluso los sistemas de IA más sofisticados pueden verse comprometidos por descuidos de seguridad elementales", declaró Aditi Gupta, gerente sénior de consultoría de servicios profesionales en Black Duck. "La prisa por implementar nuevas tecnologías no debe comprometer los principios básicos de seguridad. Las organizaciones deben priorizar las medidas de seguridad fundamentales para garantizar una confianza absoluta en su software, especialmente en un mundo cada vez más regulado e impulsado por la IA".

Las fallas, descubiertas durante una revisión de seguridad tras las quejas de los usuarios de Reddit sobre las respuestas absurdas del bot, fueron resueltas rápidamente por McDonald's y Paradox.ai (creador de Olivia) tras su divulgación.

Los inicios de sesión predeterminados y el IDOR provocan filtraciones masivas

Según una entrada de blog de Carroll, la interfaz administrativa de McHire para franquiciados de restaurantes aceptaba el nombre de usuario predeterminado "123456" y la contraseña "123456". Iniciar sesión con esas credenciales otorgaba acceso inmediato, no solo a un entorno de prueba, sino también a paneles administrativos en tiempo real.

Aunque la aplicación intenta forzar el inicio de sesión único (SSO) para McDonald's, hay un enlace más pequeño para "Miembros del equipo Paradox" que nos llamó la atención", dijo Carroll. "Sin pensarlo mucho, ingresamos '123456' como contraseña y nos sorprendió ver que iniciamos sesión de inmediato".

Una vez dentro, los investigadores descubrieron además un endpoint API interno que utiliza un parámetro predecible para obtener datos del solicitante. Simplemente disminuyendo el valor del ID, Caroll y Curry recuperaron toda la información personal identificable del solicitante, incluyendo transcripciones de chat, información de contacto y datos del formulario de empleo. Este exploit IDOR expuso no solo los datos de contacto, sino también marcas de tiempo, preferencias de turnos, resultados de pruebas de personalidad e incluso tokens que podrían suplantar la identidad de los candidatos en McHire.

"Este incidente es un excelente ejemplo de lo que ocurre cuando las organizaciones implementan tecnología sin comprender su funcionamiento ni cómo puede ser operada por usuarios no confiables", declaró Evan Dornbush, director ejecutivo de Desired Effect (https://www.linkedin.com/in/evandornbush/). "Con sistemas de IA que gestionan millones de datos confidenciales, las organizaciones deben invertir en comprender y mitigar las amenazas preemergentes, o se verán obligadas a ponerse al día, con la confianza de sus clientes en juego".

La rápida aplicación de parches salvó la situación.

Tras la divulgación de la vulnerabilidad el 30 de junio de 2025, Paradox.ai y McDonald's reconocieron la vulnerabilidad en menos de una hora. Para el 1 de julio, se deshabilitaron las credenciales predeterminadas y se protegió el endpoint. Paradox.ai también se comprometió a realizar más auditorías de seguridad, señaló Carroll en el blog.

"Aunque aún no hay indicios de que los datos se hayan utilizado con fines maliciosos, la magnitud y la sensibilidad de la exposición podrían impulsar campañas de phishing, smishing/vishing, e incluso ingeniería social dirigidas", declaró Randolph Barr (https://www.linkedin.com/in/randolphbarr/), director de seguridad de la información de Cequence Security. "Combinadas con herramientas de IA, los atacantes podrían crear amenazas increíblemente personalizadas y convincentes".

McDonald's no respondió de inmediato a las consultas del director de seguridad.

Paradox publicó posteriormente su versión de los hechos en su sitio web (https://www.paradox.ai/blog/responsible-security-update), indicando que los investigadores de seguridad lograron acceder a una cuenta de prueba de Paradox relacionada con una única instancia de cliente de Paradox utilizando una contraseña heredada.

"Confiamos en que, según nuestros registros, ningún tercero, salvo los investigadores de seguridad, accedió a esta cuenta de prueba", escribió el personal de Paradox, enfatizando que "en ningún momento se filtró información de los candidatos en línea ni se hizo pública. Cinco candidatos en total tuvieron acceso a información debido a este incidente, y solo los investigadores de seguridad la vieron. Este incidente afectó a una organización; ningún otro cliente de Paradox se vio afectado".

Las fallas de ciberseguridad son cada vez más comunes en los entornos de reclutamiento, probablemente debido a un enfoque en la velocidad, la automatización y la escalabilidad en detrimento de la seguridad. A principios de esta semana, se descubrió que la plataforma de seguimiento de candidatos en línea TalentHook filtraba casi26 millones de archivos PII a través de un contenedor de almacenamiento Azure Blob mal configurado.

Al enfatizar la necesidad de incorporar los flujos de trabajo de contratación a la ciberseguridad general, Kobi Nissan, cofundador y director ejecutivo de MineOS, dijo: "Cualquier sistema de IA que recopile o procese datos personales debe estar sujeto a los mismos controles de privacidad, seguridad y acceso que los sistemas comerciales centrales. Eso significa autenticación, auditabilidad e integración en flujos de trabajo de riesgo más amplios, no implementaciones aisladas que pasan desapercibidas".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd