Problema 2482

El año pasado, cubrimos un informe de investigación que descubrió cómo los proyectores podrían usarse para mostrar objetos virtuales y engañarse a sí mismo. conducir autos En lo último, tenemos otra investigación que trata detalles sorprendentemente similares pero que incorpora el engaño de [Inteligencia artificial] (https://www.hackread.com/website-uses-artificial-intelligence-to-create-human- caras/) (AI) como un todo.
Descubierto por los investigadores Abhiram Gnanasambandam, Alex M. Sherman y Stanley H. Chan de la Universidad de Purdue; el nuevo ataque ha sido denominado como OPtical ADversarial attack (OPAD) e implica el uso de tres objetos: un proyector de bajo costo, una cámara y una computadora para ejecutar el ataque.
La forma en que lo hace no es colocando nuevos objetos virtuales en el entorno, sino modificando la forma en que la IA ve los objetos existentes que ya están presentes. La siguiente imagen muestra cómo se modificaron objetos como una pelota de baloncesto para que se vieran como otra cosa al proyectar ciertos patrones calculados sobre ellos.
Las ventajas de este método de ataque son que no se necesita acceso físico a los objetos en sí. Esto, según los investigadores, es un alejamiento de los métodos de engaño de IA discutidos anteriormente que obviamente pueden facilitar mucho la ocultación de los atacantes.
Demostrando otro ejemplo de ataque, los investigadores citan el siguiente ejemplo:
Detallando más, los investigadores afirman en su [documento de investigación] (https://arxiv.org/pdf/2108.06247.pdf) que,
La dificultad de lanzar un ataque óptico es asegurarse de que las perturbaciones sean imperceptibles mientras se compensan las atenuaciones ambientales y la no linealidad del instrumento.
OPAD supera estas dificultades teniendo en cuenta el entorno y el algoritmo. OPAD es un marco de metaataque que se puede aplicar a cualquier ataque digital existente.
Las implicaciones del mundo real de esto son que se puede usar para engañar, por ejemplo, a los autos que conducen por sí mismos y, por lo tanto, se puede usar para causar accidentes o tal vez incurrir en bromas. Por otro lado, las cámaras de seguridad que emplean IA también pueden ser engañadas, lo que puede tener repercusiones significativas.
Para concluir, obviamente esto no funcionará en todas las situaciones, pero independientemente, las empresas que desarrollan tecnologías de IA deben estar atentas a tales problemas de seguridad potenciales.
Además, es importante mencionar que la investigación fue financiada por el Ejército de los EE. UU., lo que indica que es posible que los militares ya estén atentos al uso de dichos métodos para ayudar en sus misiones en el campo.