Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2791

Loading...
Los estafadores de romances en línea pueden tener un nuevo compañero: la inteligencia artificial
cbc.ca · 2023

La voz que escuchas al otro lado de tu llamada telefónica puede no ser quien crees que es, la persona con la que estás enviando mensajes de texto podría ser realmente un bot, y la cara en una foto o video en tu aplicación de citas favorita podría no ser ni siquiera existir.

Los avances tecnológicos en inteligencia artificial están creando el potencial para impulsar las estafas románticas, dijo Jeff Clune, profesor asociado de informática en la Universidad de Columbia Británica.

Los estafadores ahora tienen "más herramientas en su caja de herramientas para engañar a las personas, especialmente a las personas que no conocen los avances tecnológicos recientes", dijo Clune en una entrevista.

Dichos avances incluyen [simuladores de voz] (https://www.cbc.ca/news/science/lyrebird-clones-voices-1.4084423), [generadores de cara] (https://www.cbc.ca/radio/spark/ spark-428-1.5032258/new-ai-makes-it-harder-to-detect-what-s-real-online-1.5032311) y [deepfakes](https://www.cbc.ca/arts/commotion-more -advanced-ai-more-deepfake-problems-1.6739590), en el que se usa una imagen o video existente para crear secuencias de video falsas pero creíbles. Otro conjunto de avances son los bots de chat, como ChatGPT, que generan respuestas de texto similares a las de los humanos en todo tipo de plataformas

El Centro Canadiense contra el Fraude informó que las estafas románticas se dispararon durante el cambio masivo en línea causado por la pandemia de COVID-19. Dijo que los esquemas de fraude a menudo implican convencer a una víctima de iniciar una relación virtual en línea para generar confianza y afecto. Luego, los estafadores usan ese apalancamiento emocional para solicitar dinero, criptomonedas, obsequios o inversiones.

El centro advirtió que el Día de San Valentín brinda una "oportunidad para que los estafadores se dirijan a los canadienses que buscan una relación". Sus últimos datos disponibles revelaron 1.928 informes de estafas románticas por un total de más de 64,5 millones de dólares en pérdidas en 2021, un aumento de casi el 25 % con respecto al año anterior.

Su Evaluación de amenazas cibernéticas para 2023-24 marcó la tecnología deepfake convincente y la inteligencia artificial, o IA, generadores de texto como posibles "actores de amenazas".

"A medida que los deepfakes se vuelvan más difíciles de distinguir del contenido genuino y las herramientas para crear deepfakes convincentes estén cada vez más disponibles, es muy probable que los actores de amenazas cibernéticas incorporen aún más la tecnología en su uso de campañas de [desinformación, desinformación y mala información] , permitiéndoles para aumentar el alcance, la escala y la credibilidad de las actividades de influencia", dijo el análisis.

"Los generadores de texto han progresado hasta un punto en el que el contenido que producen a menudo es casi indescifrable del material legítimo".

Clune dijo que las estafas que utilizan aspectos de la tecnología de inteligencia artificial aún requieren que una persona maneje los hilos, pero eso podría cambiar pronto.

"Aunque la estafa es muy frecuente en este momento, todavía hay un costo para hacerlo, porque un ser humano tiene que sentarse allí y pasar su tiempo".

"Pero si puedes hacer que la IA se lo haga a un millón de personas al día y simplemente sentarte y ver cómo entra el dinero, ese es un lugar aterrador para estar. Y eso es algo que es posible con esta tecnología", dijo.

Law no se ha mantenido al día con la tecnología: experto

Suzie Dunn, profesora asistente de la Facultad de Derecho Schulich de la Universidad de Dalhousie, dijo que la ley no se ha mantenido al día con la tecnología, lo que deja "grandes lagunas" en el marco legal.

"Uno de los desafíos que tenemos en torno a las leyes de suplantación de identidad es que, según el Código Penal de Canadá, en realidad tienes que hacerte pasar por una persona existente", dijo Dunn en una entrevista.

Dijo que el software que permite a las personas crear un individuo inexistente, con un acento, una voz o un rostro falsos, plantea complicaciones legales.

"Si está usando las imágenes de alguien o el nombre de alguien, entonces puede contarse como una forma de suplantación de identidad", dijo.

"Pero con estas nuevas tecnologías... los tipos de daños que a menudo deben estar cubiertos por estas reglas de suplantación de identidad no están realmente cubiertos".

Las víctimas deben confiar en las leyes existentes sobre extorsión y fraude, dijo.

"No necesitamos nuevas leyes de extorsión. La extorsión es extorsión, ya sea que la realicen deepfakes o una persona normal", agregó.

"También hay una brecha importante en el papel que juegan las plataformas para abordar los daños que les ocurren".

Dunn dijo que las corporaciones, incluidos los desarrolladores de inteligencia artificial, las plataformas de redes sociales y de citas, deben ser conscientes de los daños potenciales y establecer las medidas de seguridad necesarias.

Clune estuvo de acuerdo. Dijo que la nueva tecnología "siempre estará al frente de las leyes y los políticos".

Dijo que el ritmo del progreso en el campo es "impresionante" y continuará, si no se acelerará.

"Casi cualquier cosa que puedas imaginar que parezca ciencia ficción y futurista hoy existirá en unos pocos años", dijo.

"Vale la pena que los políticos y la sociedad participen en conversaciones reflexivas sobre lo que viene y traten de adelantarse y pensar qué podemos hacer al respecto".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd