Incidentes Asociados
EspañolPrimero vio el anuncio en Facebook. Y luego de nuevo en TikTok. Después de ver una y otra vez lo que parecía ser Elon Musk ofreciendo una oportunidad de inversión, Heidi Swan pensó que tenía que ser verdad.
"Parecía Elon Musk, sonaba como Elon Musk y pensé que era él", dijo Swan.
Se puso en contacto con la empresa que estaba detrás del anuncio y abrió una cuenta por más de $10,000. La trabajadora de la salud de 62 años pensó que estaba haciendo una inversión inteligente en criptomonedas de un empresario e inversor con miles de millones de dólares.
Pero Swan pronto se enteraría de que había sido estafada por una nueva ola de ladrones de alta tecnología que usaban inteligencia artificial para crear deepfakes.
Incluso ahora, al mirar los videos y saber que son falsos, Swan todavía piensa que parecen convincentes.
"Todavía se parecen a Elon Musk", dijo. "Todavía suenan como Elon Musk".
Las estafas deepfake están en aumento en los EE. UU.
A medida que la tecnología de inteligencia artificial evoluciona y se vuelve más accesible, este tipo de estafas se están volviendo más comunes.
Según Deloitte, un importante grupo de investigación financiera, el contenido generado por IA contribuyó a más de 12 mil millones de dólares en pérdidas por fraude el año pasado, y podría llegar a los 40 mil millones de dólares en los EE. UU. para 2027.
Tanto la Comisión Federal de Comercio como la Mejor Agencia de Investigación Empresarial La Oficina de Inteligencia Artificial (https://www.bbb.org/article/news-releases/27157-bbb-tip-how-to-spot-a-deepfake-and-avoid-scams) ha emitido advertencias de que las estafas deepfake están en aumento.
Un estudio de la empresa de inteligencia artificial Sensity descubrió que Elon Musk es la celebridad más utilizada en las estafas deepfake. Una razón probable es su riqueza y su espíritu emprendedor. Otra razón es la cantidad de entrevistas que ha realizado; cuanto más contenido de alguien haya en línea, más fácil es crear deepfakes convincentes.
Anatomía de un deepfake
En la Universidad del Norte de Texas en Denton, el profesor Christopher Meerdo también está utilizando inteligencia artificial. Pero la está utilizando para crear arte.
"No va a reemplazar las artes creativas", dijo Meerdo. "Esto simplemente los va a mejorar y cambiar la forma en que entendemos las cosas que podríamos hacer en la esfera de la creatividad".
Aunque Meerdo ve la inteligencia artificial como una forma de ser innovador, ve sus peligros.
Meerdo mostró al equipo de investigación de Texas de CBS News cómo los estafadores pueden tomar un video real y usar herramientas de IA para reemplazar la voz y los movimientos de la boca de una persona, haciéndola parecer que dice algo completamente diferente.
Los avances en la tecnología están facilitando la creación de videos deepfake. Todo lo que una persona que esté familiarizada con la IA necesita para hacer uno es una sola imagen fija y una grabación de video.
Para demostrar esto, Meerdo tomó un video del periodista de investigación Brian New para crear un deepfake de Elon Musk.
Estos videos generados por IA no son perfectos, pero solo necesitan ser lo suficientemente convincentes para engañar a una víctima desprevenida.
"Si realmente estás tratando de estafar a la gente, creo que puedes hacer algunas cosas realmente malas con esto", dijo Meerdo.
¿Cómo puedes detectar un deepfake?
Algunos deepfakes son más fáciles de detectar que otros; puede haber señales como movimientos de labios poco naturales o lenguaje corporal extraño. Pero a medida que la tecnología mejore, será más difícil detectarlos con solo mirarlos.
Hay un número cada vez mayor de sitios web que afirman que pueden detectar deepfakes. Utilizando tres vídeos deepfake conocidos y tres auténticos, el equipo de investigación de CBS News Texas sometió a cinco de estos sitios web a una prueba no científica: Deepware, Attestiv, DeepFake-O-Meter, Sensity y Deepfake Detector.
En total, estas cinco herramientas en línea identificaron correctamente los vídeos probados casi el 75 % de las veces. El equipo de investigación se puso en contacto con las empresas para comunicarles los resultados; sus respuestas se encuentran a continuación.
Deepware
Deepware, un sitio web gratuito, inicialmente no marcó dos de los videos falsos que el equipo de investigación probó. En un correo electrónico, la empresa dijo que los clips utilizados eran demasiado cortos y que para obtener los mejores resultados, los videos subidos deberían tener una duración de entre 30 segundos y un minuto. Deepware identificó correctamente todos los videos más largos. Según la empresa, su tasa de detección se considera buena para la industria en un 70%.
La sección de preguntas frecuentes del sitio web de Deepware afirma: "Los deepfakes aún no son un problema resuelto. Nuestros resultados indican la probabilidad de que un video específico sea un deepfake o no".
Deepfake Detector
Deepfake Detector, una herramienta que cobra $16.80 por mes, identificó uno de los videos falsos como "97% de voz natural". La empresa, que se especializa en detectar voces generadas por IA, dijo en un correo electrónico que factores como el ruido de fondo o la música pueden afectar los resultados, pero tiene una tasa de precisión de aproximadamente el 92%.
En respuesta a una pregunta sobre la orientación para los consumidores promedio, la empresa escribió: "Nuestra herramienta está diseñada para ser fácil de usar. Los consumidores promedio pueden cargar fácilmente un archivo de audio en nuestro sitio web o usar nuestra extensión del navegador para analizar el contenido directamente. La herramienta proporcionará un análisis para ayudar a determinar si un video puede contener elementos deepfake utilizando probabilidades, lo que lo hace accesible incluso para aquellos que no están familiarizados con la tecnología de IA".
Attestiv
Attestiv marcó dos de los videos reales como "sospechosos". Según el director ejecutivo de la empresa, Nicos Vekiarides, los falsos positivos pueden ser provocados por factores como gráficos y ediciones. Ambos videos auténticos marcados como "sospechosos" incluían gráficos y ediciones. El sitio ofrece un servicio gratuito, pero también tiene un nivel pago, donde los consumidores pueden ajustar la configuración y las calibraciones para un análisis más profundo.
Aunque reconoce que Attestiv no es perfecto, Vekiarides dijo que, a medida que los deepfakes se vuelven más difíciles de detectar a simple vista, este tipo de sitios web son necesarios como parte de la solución.
"Nuestra herramienta puede determinar si algo es sospechoso y luego puedes verificarlo con tus propios ojos para decir: 'Creo que es sospechoso'", dijo Vekiarides.
DeepFake-O-Meter
DeepFake-O-Meter es otra herramienta gratuita respaldada por la Universidad de Buffalo y la Fundación Nacional de Ciencias. Identificó dos de los videos reales como aquellos que tienen un alto porcentaje de ser generados por IA.
En un correo electrónico, el creador de la plataforma abierta dijo que una limitación de los modelos de detección de deepfakes es que la compresión de video puede provocar problemas de sincronización con el video y el audio y movimientos de boca inconsistentes.
En respuesta a una pregunta sobre cómo los usuarios cotidianos pueden utilizar la herramienta, la empresa envió un correo electrónico: "Actualmente, el resultado principal que se muestra a los usuarios es el valor de probabilidad de que esta muestra sea una muestra generada a través de diferentes modelos de detección. Esto se puede utilizar como referencia si varios modelos coinciden en la misma respuesta con confianza (por ejemplo, más del 80 % para videos generados por IA o menos del 20 % para videos reales). Actualmente estamos desarrollando una forma más comprensible de mostrar los resultados, así como nuevos modelos que pueden generar resultados de detección completos".
Sensity
El detector de deepfake de Sensity identificó correctamente los seis clips, mostrando un mapa de calor que indica dónde es más probable la manipulación por IA.
La empresa ofrece un período de prueba gratuito para utilizar su servicio y le dijo al I-Team que, si bien actualmente está diseñado para organizaciones privadas y públicas, su objetivo futuro es hacer que la tecnología sea accesible para todos.