Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3574

Incidentes Asociados

Incidente 62630 Reportes
Social Media Scammers Used Deepfakes of Taylor Swift and Several Other Celebrities in Fraudulent Le Creuset Cookware Giveaways

Loading...
Deepfake de Taylor Swift utilizado para la estafa de sorteos de Le Creuset
engadget.com · 2024

Taylor Swift no ofrece productos Le Creuset gratuitos en anuncios de redes sociales, aunque a los deepfakes de su voz les gustaría hacernos creer lo contrario. Recientemente ha aparecido una serie de publicaciones en TikTok y en la biblioteca de anuncios de Meta que afirman mostrar a Swift ofreciendo juegos de utensilios de cocina Le Creuset gratuitos, [the New York Times informes](https://www.nytimes.com/2024/01/09 /tecnología/taylor-swift-le-creuset-ai-deepfake.html). Los anuncios presentaban clips en los que Swift estaba cerca de productos Le Creuset y usaba un material sintético. versión de su voz. Los estafadores utilizaron inteligencia artificial para que la voz clonada se dirigiera a sus fans, "Swifties", y produjera otros pequeños comentarios.

Estas publicaciones llevaron a los interesados a versiones falsas de sitios como The Food Network con artículos inventados y testimonios sobre Le Creuset. Luego se pidió a los compradores que simplemente proporcionaran los $9,96 de envío para obtener sus productos gratis. Como era de esperar, no llegaron hornos holandeses y a los clientes se les agregaron cargos mensuales adicionales a sus tarjetas. Le Creuset confirmó que no se estaba produciendo tal regalo.

Swift no es la única celebridad que recientemente ha visto su voz cooptada mediante la IA. Ni siquiera es la única utilizada en la estafa, ya que la diseñadora de interiores Joanna Gaines fue imitada en anuncios de cuentas verificadas o etiquetadas como publicaciones patrocinadas. En abril de 2023, el Better Business Bureau advirtió a los consumidores sobre la alta calidad de los anuncios que presentan versiones de celebridades fabricadas con IA. Desde entonces, los estafadores han utilizado deepfakes para convencer a los consumidores de que Luke Combs vendía gomitas para bajar de peso, [Tom Hanks promocionaba planes dentales](https://www.engadget.com/tom-hanks-calls-out-dental-ad- for-using-ai-likeness-of-him-161548459.html) y Gayle King vendía otros productos para bajar de peso, por nombrar algunos ejemplos.

Existe poca regulación para monitorear los deepfakes o castigar a las personas que los crean. Gran parte de la responsabilidad recae actualmente en las plataformas; YouTube, por ejemplo, ha establecido nuevos [pasos para denunciar deepfakes](https://www.engadget.com/youtube-will-let-musicians-and-actors-request -eliminaciones-de-sus-deepfakes-131533866.html). Al mismo tiempo, se trabaja con músicos selectos para [prestar sus voces](https://www.engadget.com/youtubes-first-ai-generated-music-tools-can-clone-artist-voices-and- turn-hums-into-melodies-132025817.html) y crear un mayor interés en las versiones de personas reales generadas por IA.

El año pasado, se presentaron dos proyectos de ley en el Congreso para abordar los deepfakes: la Ley contra las falsificaciones y la Ley de Responsabilidad de los Deepfakes. Sin embargo, el destino de ambas leyes es incierto. Por el momento, sólo algunos estados, como California y Florida, tienen alguna regulación sobre la IA.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd