Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2788

Loading...
Explicación: Cómo la imagen de IA, los generadores de voz pueden ser una amenaza de seguridad global
gadgetsnow.com · 2023

La inteligencia artificial (IA) ha sido la comidilla de la ciudad desde que OpenAI lanzó el chatbot ChatGPT. La tendencia se aceleró cuando Microsoft anunció el 'nuevo' Bing con capacidades de chatbot. En los últimos dos meses, se han visto varios informes sobre modelos de IA que pueden convertir la entrada de texto en imágenes e imitar voces. Si bien esto puede parecer "genial", una mirada exhaustiva a la tecnología sugiere que puede representar una amenaza para la seguridad a nivel mundial. Aquí discutimos algunas formas en que las personas pueden caer en la trampa de los piratas informáticos a medida que la IA se vuelve más sofisticada.

pesca de gato

Hay varios textos para generadores de imágenes de IA disponibles en línea. Estos pueden convertir palabras en una imagen en segundos y, si su descripción es lo suficientemente detallada, puede obtener un arte vibrante que puede usarse para engañar a las personas o pescar gatos.

Catfishing es una técnica engañosa en la que se crea una identidad social ficticia/falsa para apuntar a víctimas no tan expertas en tecnología. Puede usarse para obtener ganancias financieras o para comprometer la privacidad de la víctima. Entre varios generadores de imágenes de IA se encuentran Stable Diffusion de Qualcomm, que puede crear una imagen utilizando la entrada de texto en un teléfono sin conexión, DALL-E, DeepAI y Fotor.

estafas financieras

Según un informe de la BBC, los piratas informáticos utilizaron imágenes de terremotos en Turquía y Siria generadas por IA para engañar a las personas para que donaran a la causa 'falsa'. Los estafadores canalizaron las donaciones a sus propias cuentas y billeteras al ofrecer enlaces a fotos falsas de la devastación en las redes sociales. El informe encontró que los actores de amenazas también publicaron subtítulos pegadizos como "Ayudemos a Turquía", "Oremos por Turquía" y "Dona para las víctimas del terremoto" en sus publicaciones.

Desinformación por Deepfakes

Deepfakes han planteado peligros desde hace algún tiempo. Con la tecnología volviéndose sofisticada a lo largo de los años, los riesgos solo han aumentado. Un deepfake es un medio sintético en el que una persona en una imagen o video existente se reemplaza por la de otra persona, como un político, un actor o un activista social.

En un incidente infame, circuló en las redes sociales un video falso que mostraba al presidente ucraniano Volodymyr Zelenskyy. En el video, se ve un deepfake de Zelenskyy pidiendo a los ucranianos que se rindan durante el ataque ruso. También hay un video de Morgan Freeman 'falso' en YouTube.

Herramientas de voz de IA

A principios de este año, Microsoft lanzó la herramienta VALL-E AI que puede replicar las voces de las personas con una muestra de 3 segundos. Si bien puede tener varios casos de uso positivos, representa una amenaza mayor porque los estafadores pueden usarlo para hacer que las llamadas de spam suenen reales. También se puede suplantar a políticos o personas con gran presencia social. Además, se puede utilizar en los casos en que se necesite una contraseña de voz.

Regulación necesaria

El uso de tales herramientas de IA está limitado a partir de ahora, pero dadas las implicaciones, es posible que se necesite una regulación para reducir tales riesgos. También se recomienda que los usuarios tengan cuidado al interactuar con las publicaciones en las redes sociales, ya que podrían ser estafas disfrazadas de causas sociales.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd