Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 668

Incidentes Asociados

Incidente 3929 Reportes
Deepfake Obama Introduction of Deepfakes

Loading...
Mira a Jordan Peele usar IA para hacer que Barack Obama entregue un anuncio de servicio público sobre noticias falsas
theverge.com · 2018

¿Cómo es el futuro de las noticias falsas? Nadie lo sabe realmente, pero aquí hay una pequeña muestra de Jordan Peele y BuzzFeed, quienes se unieron para hacer el anuncio de servicio público anterior. Usando algunas de las últimas técnicas de IA, Peele ventríloga a Barack Obama, haciéndole expresar su opinión sobre Black Panther ("Killmonger tenía razón") y llamar al presidente Donald Trump "un total y completo imbécil".

El video fue realizado por la productora de Peele utilizando una combinación de tecnología antigua y nueva: Adobe After Effects y la herramienta de intercambio de rostros de IA FakeApp. Este último es el ejemplo más destacado de cómo la IA puede facilitar la creación de videos falsos fotorrealistas. Comenzó su vida en Reddit como una herramienta para hacer porno falso de celebridades, pero desde entonces se ha convertido en un símbolo preocupante del poder de la IA para generar información errónea y noticias falsas.

Sí, hemos tenido software para crear falsificaciones por un tiempo, pero la IA facilita todo el proceso. Los investigadores han desarrollado herramientas que le permiten realizar intercambios de rostros como el de arriba en tiempo real; Adobe está creando un "Photoshop para audio" que le permite editar diálogos tan fácilmente como una foto; y una startup canadiense llamada Lyrebird ofrece un servicio que te permite fingir la voz de otra persona con solo unos minutos de audio. El tecnólogo Aviv Ovadya resumió los temores creados por esta tecnología y le preguntó a BuzzFeed News: "¿Qué sucede cuando cualquiera puede hacer que parezca que algo sucedió, independientemente de si sucedió o no?".

Actualmente, los científicos están creando herramientas que pueden detectar falsificaciones de IA, pero por el momento, el mejor escudo contra este tipo de información errónea es inculcar a todos un poco más de conocimiento de los medios. Si ves un video provocativo, debes preguntarte: ¿de dónde viene esto? ¿Lo han corroborado otros medios? ¿Parece real? En el caso de los videos generados por IA, generalmente puede ver que son falsos por signos reveladores de distorsión y desenfoque.

Como dice “Obama” en el anuncio de servicio público: “Puede sonar básico, pero la forma en que avancemos en la era de la información será la diferencia entre si sobrevivimos o si nos convertimos en una especie de jodida distopía”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd