Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4847

Incidentes Asociados

Incidente 9654 Reportes
Phishers Allegedly Using AI-Generated Video of YouTube CEO Neal Mohan to Target Creators

Loading...
Los piratas informáticos utilizan una inteligencia artificial para falsificar la identidad del director ejecutivo de YouTube en una estafa de robo de credenciales
hackread.com · 2025

El CEO de YouTube, Neal Mohan, fue suplantado en una estafa de phishing deepfake. Conozca más sobre el ataque, cómo detectar las señales de alerta y cómo proteger su cuenta del robo de credenciales.

Una nueva y sofisticada operación de phishing, que aprovecha la inteligencia artificial, ha tenido como objetivo recientemente a los creadores de contenido de YouTube. Los estafadores han utilizado tecnología deepfake para crear un video convincente del CEO de YouTube, Neal Mohan, haciendo un anuncio inventado sobre cambios en las políticas de monetización de la plataforma.

Este video se comparte de forma privada con usuarios específicos para robar sus credenciales de inicio de sesión e instalar malware en sus dispositivos. El esquema fraudulento comienza con un correo electrónico, aparentemente originado en una dirección oficial de YouTube, que notifica a los creadores que se ha compartido un video privado con ellos. El video en sí presenta una falsificación increíblemente realista de Neal Mohan, que imita su apariencia, voz y gestos a un grado alarmante.

En el video, Mohan, generado por IA, habla sobre supuestas alteraciones en la monetización de YouTube e insta a los espectadores a realizar acciones específicas. Estas acciones generalmente implican hacer clic en enlaces, ingresar credenciales de inicio de sesión en sitios web falsos o descargar software de fuentes no confiables.

El vídeo fraudulento (Fuente: Reddit)

Al comprometer la cuenta de un usuario, los atacantes obtienen acceso a su canal de YouTube. Este acceso puede ser explotado con diversos fines maliciosos, como difundir información errónea, realizar más ataques de phishing o participar en actividades fraudulentas.

YouTube ha respondido a esta amenaza con una advertencia urgente a su comunidad de creadores. La empresa ha declarado explícitamente que nunca compartirá información importante ni se pondrá en contacto con los usuarios a través de vídeos privados. Además, han hecho hincapié en que cualquier vídeo privado que diga ser de YouTube, en particular los que muestran a su director ejecutivo, debe tratarse como una estafa de phishing.

“Somos conscientes de que los phishers han estado compartiendo vídeos privados para enviar vídeos falsos, incluido un vídeo generado por IA del director ejecutivo de YouTube, Neal Mohan, anunciando cambios en la monetización. YouTube y sus empleados nunca intentarán ponerse en contacto con usted ni compartir información a través de un vídeo privado”, se lee en el anuncio oficial de Google.

“Si se comparte un vídeo de forma privada con usted que dice ser de YouTube, el vídeo es una estafa de phishing. “No haga clic en estos enlaces, ya que los videos probablemente lo llevarán a sitios de phishing que pueden instalar malware o robar sus credenciales”, advirtió Rob de YouTube a los usuarios.

Los deepfakes de IA son una ilusión peligrosa creada por sofisticados modelos de IA entrenados con imágenes reales y muestras de voz, que explotan la confianza de las personas en las figuras públicas. Incluso las personas con conocimientos de tecnología tendrían dificultades para distinguirlos de las imágenes reales. Este incidente destaca que la sofisticación de los ataques de phishing ha aumentado, y la tecnología deepfake se utiliza para hacerse pasar por figuras de alto perfil como el director ejecutivo de YouTube.

Los ciberdelincuentes explotan la confianza de los creadores en las comunicaciones oficiales de la plataforma, creando engaños creíbles. Se recomienda a los creadores de contenido que tengan cuidado y eviten descargar archivos de fuentes no confiables. Si recibes el video, Google recomienda seguir estos pasos para denunciarlo.

Max Gannon, gerente de inteligencia de Cofense, comentó sobre el último desarrollo diciendo: "Dado que las deepfakes generalmente solo se han utilizado en estafas dirigidas de alto valor, es una sorpresa que los actores de amenazas las estén utilizando para un ataque tan amplio. Es preocupante y posiblemente indica un cambio en el panorama de amenazas, donde podemos esperar ver más deepfakes y otros métodos de ataque dirigidos que se aplicarán ampliamente a audiencias más grandes.“

_“_Sin embargo, según los usuarios afectados que publican sobre estos correos electrónicos falsos de YouTube en varias plataformas de redes sociales, los correos electrónicos envían ejecutables maliciosos para robar cookies de sesión y secuestrar cuentas de YouTube. En última instancia, el gancho de phishing inicial puede estar cambiando, pero la mejor defensa sigue siendo la misma: capacitación y concienciación para detectar correos electrónicos sospechosos y no hacer clic en sus enlaces”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd