Problema 2788
La inteligencia artificial (IA) ha sido la comidilla de la ciudad desde que OpenAI lanzó el chatbot ChatGPT. La tendencia se aceleró cuando Microsoft anunció el 'nuevo' Bing con capacidades de chatbot. En los últimos dos meses, se han visto varios informes sobre modelos de IA que pueden convertir la entrada de texto en imágenes e imitar voces. Si bien esto puede parecer "genial", una mirada exhaustiva a la tecnología sugiere que puede representar una amenaza para la seguridad a nivel mundial. Aquí discutimos algunas formas en que las personas pueden caer en la trampa de los piratas informáticos a medida que la IA se vuelve más sofisticada.
pesca de gato
Hay varios textos para generadores de imágenes de IA disponibles en línea. Estos pueden convertir palabras en una imagen en segundos y, si su descripción es lo suficientemente detallada, puede obtener un arte vibrante que puede usarse para engañar a las personas o pescar gatos.
Catfishing es una técnica engañosa en la que se crea una identidad social ficticia/falsa para apuntar a víctimas no tan expertas en tecnología. Puede usarse para obtener ganancias financieras o para comprometer la privacidad de la víctima. Entre varios generadores de imágenes de IA se encuentran Stable Diffusion de Qualcomm, que puede crear una imagen utilizando la entrada de texto en un teléfono sin conexión, DALL-E, DeepAI y Fotor.
estafas financieras
Según un informe de la BBC, los piratas informáticos utilizaron imágenes de terremotos en Turquía y Siria generadas por IA para engañar a las personas para que donaran a la causa 'falsa'. Los estafadores canalizaron las donaciones a sus propias cuentas y billeteras al ofrecer enlaces a fotos falsas de la devastación en las redes sociales. El informe encontró que los actores de amenazas también publicaron subtítulos pegadizos como "Ayudemos a Turquía", "Oremos por Turquía" y "Dona para las víctimas del terremoto" en sus publicaciones.
Desinformación por Deepfakes
Deepfakes han planteado peligros desde hace algún tiempo. Con la tecnología volviéndose sofisticada a lo largo de los años, los riesgos solo han aumentado. Un deepfake es un medio sintético en el que una persona en una imagen o video existente se reemplaza por la de otra persona, como un político, un actor o un activista social.
En un incidente infame, circuló en las redes sociales un video falso que mostraba al presidente ucraniano Volodymyr Zelenskyy. En el video, se ve un deepfake de Zelenskyy pidiendo a los ucranianos que se rindan durante el ataque ruso. También hay un video de Morgan Freeman 'falso' en YouTube.
Herramientas de voz de IA
A principios de este año, Microsoft lanzó la herramienta VALL-E AI que puede replicar las voces de las personas con una muestra de 3 segundos. Si bien puede tener varios casos de uso positivos, representa una amenaza mayor porque los estafadores pueden usarlo para hacer que las llamadas de spam suenen reales. También se puede suplantar a políticos o personas con gran presencia social. Además, se puede utilizar en los casos en que se necesite una contraseña de voz.
Regulación necesaria
El uso de tales herramientas de IA está limitado a partir de ahora, pero dadas las implicaciones, es posible que se necesite una regulación para reducir tales riesgos. También se recomienda que los usuarios tengan cuidado al interactuar con las publicaciones en las redes sociales, ya que podrían ser estafas disfrazadas de causas sociales.