Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3394

Incidentes Asociados

Incidente 60615 Reportes
Deepfaked Advertisements Using the Likenesses of Celebrities Such as Tom Hanks and Gayle King Without Their Consent

Loading...
Estos últimos deepfakes de celebridades muestran cuán avanzadas se han vuelto las estafas
lifehacker.com · 2023

Desde que existe la web, este consejo ha sonado cierto: "No creas todo lo que ves en Internet". Ya sea un blog personal, un tweet, un vídeo de YouTube o un TikTok, cualquiera puede decir cualquier cosa aquí y es difícil saber si tiene razón o no (o incluso si dice la verdad).

Pero estamos en un punto de inflexión en la alfabetización en Internet: la IA generativa ha llegado a un punto aterrador, con tecnología lo suficientemente buena como para imitar la imagen de las celebridades y hacer que estos “clones” digan lo que quieran. Para aquellos que lo saben, es posible que estos deepfakes aún no sean convincentes, pero ¿qué pasa con el usuario promedio de las redes sociales? Parece que nos acercamos rápidamente a un punto en el que el público en general comenzará a creer que estos videos fraudulentos son reales, y esa es una idea aterradora.

Hay tres ejemplos destacados de esto apenas la semana pasada. El primero es Tom Hanks: el actor publicó una captura de pantalla en su Instagram de un video que promociona un “plan dental”, con un portavoz que se parece a Tom Hanks si le reinstalaran los dientes. El vídeo en sí no parece ser público y Hanks no lo compartió ni el nombre de la empresa que lo promociona. Pero se supone que alguna empresa o persona hizo un deepfake de Tom Hanks para vender un producto dental. Como mencioné, al observar detenidamente la imagen, ya se puede ver que hay algo "raro" en su rostro, y si hubiéramos podido ver el video, es probable que el movimiento tuviera ese aspecto rígido y extraño de valle que tanto caracteriza. muchos deepfakes de IA lo tienen.

Pero Hanks estuvo lejos de ser la única celebridad esta semana que se enfrentó a un problema de deepfake. Gayle King, una de las presentadoras de CBS Mornings, publicó un deepfake en su cuenta de Instagram, afirmando que la gente sigue enviándole el video y que ella no tiene nada que ver con eso. Esta vez, compartió el video original en el que se basa el deepfake, un video inocente de King hablando de tener a Bruce Springsteen en su programa.

Los observadores atentos podrán darse cuenta de que el primer video es falso: los movimientos de los labios no coinciden con el audio, y aunque el audio se parece a la voz de King, es demasiado rígido, como si ella estuviera fingiendo ser una mala actriz mientras leía un guion. Estoy seguro de que cualquiera de nosotros que esté en sintonía con estas limitaciones de los deepfakes y la IA generativa notará los signos reveladores de inmediato, pero no estoy convencido de que todos vean esto como una falsificación inmediata.

En tercer lugar, la sensación de Internet, Mr. Beast, se está volviendo viral actualmente por un anuncio deepfake que se muestra a los usuarios de TikTok, incluido yo mismo. En él, “Sr. Beast” felicita al espectador por estar entre los 10.000 usuarios seleccionados para ganar un iPhone 15 Pro por sólo dos dólares. ¡Eres afortunado!

El vídeo en cuestión es uno de los mejores que he visto, aunque también tiene sus problemas obvios. Quien hizo este se encargó de que el Sr. Bestia pareciera más expresivo mientras hablaba, en un intento de que toda la interacción pareciera más natural. Creo que eso podría ser efectivo para algunos, pero, repito, no es 100%. Ver el video sabiendo que es falso saca a la superficie todas las imperfecciones.

Incluso si cree que es obvio que estos ejemplos son falsos, como dice Marques Brownlee, esto es lo peor que será esta tecnología. Los deepfakes seguirán mejorando, con el objetivo final de ser indistinguibles del vídeo real.

Si has disfrutado de alguna de las versiones de canciones de IA que están apareciendo en Internet, sabes lo buena que se está volviendo la tecnología. El actor de doblaje de Plankton de Spongebob debería, con razón, preocuparse por lo excelentes que son estas versiones, como la versión de Plankton de Beggin’. Frank Sinatra podría haber muerto cuando Dua Lipa tenía dos años, pero esta versión de IA de él cantando Levitating es una maravilla.

Esta tecnología puede incluso traducir su discurso y doblarlo en tiempo real, en su voz. Si bien existe una gran cantidad de aplicaciones con esta capacidad, [incluso Spotify la está probando](https://newsroom.spotify.com/2023-09-25/ai-voice-translation-pilot-lex-fridman-dax -shepard-steven-bartlett/) para traducir podcasts con las voces de los presentadores.

En este punto, los mejores deepfakes son solo de audio, e incluso así todavía tienen problemas de precisión. Pero, ¿qué sucede cuando un mal actor puede hacer un anuncio falso de Mr. Beast del que se enamora la mayoría de la gente? Imagínese a un Sr. Bestia realmente convincente diciendo directamente a los fanáticos jóvenes e impresionables: "Todo lo que tienen que hacer para participar en mi sorteo es ingresar su información bancaria, para que pueda transferirles las ganancias directamente". Quizás el “concurso” se lleve a cabo dentro de un “Mr. Aplicación Beast”, que en realidad instala malware en su dispositivo.

Por supuesto, hay escenarios más aterradores a considerar. Nos acercamos a las elecciones presidenciales el próximo año. ¿Qué tan buena será la tecnología deepfake para noviembre de 2024? ¿Alguien abrirá TikTok antes de ir a las urnas para ver un deepfake de Joe Biden diciendo que su objetivo final es encarcelar a sus enemigos políticos? ¿O tal vez una en la que Donald Trump les diga a sus seguidores que acudan armados a las urnas?

Sea diligente al mirar videos en línea

Las empresas de redes sociales deben ser más proactivas a la hora de atacar estos vídeos falsos antes de que se propaguen a otros, pero nosotros también tenemos un papel que desempeñar en todo esto. Debemos tener cuidado, ahora más que nunca, al desplazarnos y hacer clic casualmente en este gran Internet nuestro. El hecho de que veas un vídeo de una “celebridad” diciendo algo o promocionando un producto no significa que sea real; ya no. Verifique diligentemente la cuenta en la que se publica: si supuestamente se trata de la personalidad real, se debe verificar su cuenta (a menos que estemos hablando de una plataforma inútil como X, en cuyo caso todas las publicaciones deben tratarse como falsas a menos que se demuestre inequívocamente lo contrario).

Mientras esperamos que los deepfakes se vuelvan realmente buenos, todavía hay muchas señales de alerta que indican cuándo algo es ilegítimo. Los movimientos de los ojos y la boca parecerán extraños, por ejemplo. Mire el video de Mr. Beast: si bien hicieron todo lo posible para hacerlo expresivo, sus ojos están bastante vacíos en esta primera mitad del clip. Y aunque coincidieron bien con los movimientos de los labios, muchos deepfakes aún no son buenos en eso.

Muchos de estos videos también aparecen en muy mala calidad. Esto se debe a que aumentar la resolución revela cuán desagradable es el video. Los deepfakes se basan en un video real de una persona, ya sea una celebridad o no, luego superponen el rostro de la celebridad encima de ese video y lo manipulan a su gusto. Es bastante difícil hacer esto en alta resolución sin problemas de fusión, por lo que ves capas que se recortan entre sí.

Una buena dosis de escepticismo ayuda mucho en Internet. Ahora que la IA generativa está tomando el control, aumenta el escepticismo tanto como puedas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd