Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3577

Incidentes Asociados

Incidente 62630 Reportes
Social Media Scammers Used Deepfakes of Taylor Swift and Several Other Celebrities in Fraudulent Le Creuset Cookware Giveaways

Loading...
No, Taylor Swift no regala utensilios de cocina Le Creuset: es una estafa
today.com · 2024

Con suerte, los usuarios de las redes sociales que vieron a Taylor Swift promocionando utensilios de cocina gratuitos en plataformas como Facebook supieron que los anuncios eran problemáticos antes de hacer clic.

En las últimas semanas han aparecido en Facebook y otras plataformas sociales anuncios falsos de la marca de utensilios de cocina Le Creuset, que parecen tener el sello de aprobación de Swift. Los anuncios utilizan clips esparcidos de la cantante con una versión sintetizada de su voz e imágenes de los hornos holandeses Le Creuset.

"Hola a todos, soy Taylor Swift", comienza un anuncio falso que muestra la voz aumentada de Swift. "Debido a un error en el embalaje, no podemos vender 3.000 juegos de utensilios de cocina Le Creuset. Así que se los regalaré a mis fieles seguidores".

Luego, el anuncio indica a los usuarios que hagan clic en un botón y respondan preguntas para recibir los utensilios de cocina de la marca de forma gratuita.

La sección de comentarios de la publicación de Facebook con la voz de Swift destacó los diversos métodos que utilizaron los creadores del anuncio falso para legitimar el "sorteo".

"¡Recibirlo en 10 días! ¡Larga espera, pero de todos modos el set es genial! ¡¡Gracias chicos!!" comentó una cuenta.

Pero otros usuarios se apresuraron a intervenir y denunciar que el anuncio era falso y al mismo tiempo compartieron su experiencia al enamorarse del anuncio.

"Pagué el envío, estúpidamente, y nunca recibí los utensilios de cocina", comentó un usuario. "Qué vergüenza darme por haber caído en la trampa. ¡No lo hagas!"

Los representantes de Swift no respondieron de inmediato a una solicitud de comentarios, mientras que un portavoz de Meta le dijo a TODAY.com que el anuncio fue eliminado.

"Le Creuset no está involucrado con Taylor Swift para ningún obsequio para el consumidor", dijo un portavoz de Le Creuset [dijo a NBC News](https://www.nbcnews.com/tech/taylor-swift-ai-generated-le-creuset- anuncio-no-real-rcna133285). "Todos los obsequios o promociones aprobados de Le Creuset provienen de las cuentas sociales oficiales de Le Creuset. Los consumidores siempre deben consultar las cuentas sociales oficiales y el sitio web de Le Creuset antes de hacer clic en cualquier anuncio sospechoso".

El Dr. David S. Touretzky, profesor de investigación del Departamento de Ciencias de la Computación y del Instituto de Neurociencia Carnegie Mellon de la Universidad Carnegie Mellon, le dice a TODAY.com que la estafa de Le Creuset solo falsificó la voz de Taylor Swift.

"Las imágenes que utilizó eran reales", explica. "Falsificar imágenes es posible, pero requiere mucho más trabajo".

El anuncio falso de Le Creuset está lejos de ser el primero en utilizar inteligencia artificial para falsificar el rostro o la voz de una celebridad con fines de estafa.

Anuncios fraudulentos similares en Facebook muestra a Oprah Winfrey también promocionando el sorteo de utensilios de cocina. En noviembre de 2023, Scarlett Johansson y su equipo legal persiguieron a Lisa AI, un avatar y generador de arte con IA. maker, por utilizar su imagen para anuncios en línea.

Por más preocupantes que puedan ser estas campañas, Touretzky subraya que antes de que llegaran los deepfakes, la gente contrataba imitadores de voz para realizar estafas similares.

"Pero encontrar personas que pudieran hacer eso bien y que estuvieran dispuestas a facilitar un delito podría ser difícil. Usar computadoras es más fácil porque no tienen moral y no te delatarán ante las autoridades", continúa.

¿Cómo se entrenan los modelos deepfake?

Touretzky explica que para falsificar la voz de alguien, es necesario recopilar muestras de su discurso. Dado que Taylor Swift estuvo en todas partes este año, los malos actores ciertamente tenían mucho contenido del que sacar .

"Esto se utiliza como datos de entrenamiento para un algoritmo de aprendizaje automático que construye un modelo de sus patrones de habla: su pronunciación, entonación, timbre de voz, ritmo de habla", explica. "Utilizando ese modelo, puedes tomar el habla de otra persona y transformarla para que suene como la persona que estás tratando de imitar".

¿Cómo podemos protegernos contra los deepfakes?

Touretzky señala que no se puede retroceder el reloj con la tecnología deepfake.

"La tecnología no va a volver a la botella", afirma. "En todo caso, a medida que las computadoras se vuelvan más poderosas, se generalizará aún más. Tal vez en uno o dos años, puedas obtener una aplicación para tu teléfono que te permita hablar como Morgan Freeman o Dame Judi Dench.

"Atrapar a las personas que hacen un mal uso de la tecnología tendrá que depender de una mejor capacidad para rastrear adónde va el dinero", afirma.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd