Incidentes Asociados

En un mundo cada vez más dependiente de la IA, un conductor holandés descubrió por las malas que ni siquiera la tecnología más avanzada es inmune a cometer errores costosos. El experto en informática Tim Hansen, de los Países Bajos, recibió una multa en noviembre de 2023 de 400 dólares o 380 euros después de que un sistema de cámaras de tráfico con tecnología de IA creyera por error que estaba usando su teléfono móvil al volante. ¿La verdad? Solo se estaba rascando la cabeza.
El incidente: identificación errónea de la IA
Se sorprendió cuando le llegó la multa por correo, ya que no había usado su teléfono ese día. El sistema fotográfico monocámara capturó a los conductores usando sus teléfonos, pero manipuló el inocente rasguño de cabeza de Hansen como una infracción por uso del teléfono. Al revisar las pruebas fotográficas, Hansen vio que su mano estaba cerca de su oreja, pero no sostenía un teléfono.
Con un error tan evidente, tanto el sistema de IA que procesó la multa como el revisor humano que la gestionó no reconocieron que no había ningún teléfono a la vista. El resultado fue una multa considerable contra Hansen por una infracción que no cometió.
Cómo funcionan los sistemas de IA como Monocam
Así es como funciona el sistema de IA Monocam: básicamente analiza imágenes de conductores en busca de uso del teléfono. opera analizando imágenes de conductores y detectando el uso del teléfono. Estos sistemas están entrenados en grandes conjuntos de datos que contienen numerosos ejemplos de conductores que usan teléfonos móviles, lo que ayuda a la IA a identificar cuándo una persona podría estar infringiendo las leyes de tránsito. Sin embargo, según Hansen, el algoritmo en cuestión probablemente cometió un error porque no pudo separar dos acciones diferentes: gestos con un peso similar, como rascarse la cabeza y sostener un teléfono.
Como profesional de TI que ha trabajado en algoritmos de reconocimiento de imágenes, Hansen dijo que los matices de cómo funcionan estos sistemas radican en el hecho de que están "entrenados" en cómo se ve el uso del teléfono a través de conjuntos de entrenamiento, validación y prueba; sin embargo, cuando esos conjuntos de datos de entrenamiento son pequeños o no representativos, conducen a errores como su experiencia. En este caso, lo más probable es que la IA haya marcado la posición de su mano basándose en un patrón que aprendió de otros ejemplos.
Esta es una situación que realmente puso de relieve la incapacidad de depender únicamente de la IA para la aplicación de la ley. Aunque eficaces, los sistemas de IA no son perfectos y solo ayudan a minimizar el error humano. La experiencia de Hansen estipula bien que tiene que haber una mayor supervisión humana con sistemas automatizados para reducir los falsos positivos. Si bien fue una multa confirmada por un revisor humano, la supervisión claramente fue insuficiente en este caso.
¿Está la IA lista para su implementación en la aplicación de la ley?
El de Hansen no es un caso aislado. A medida que más y más gobiernos e instituciones comienzan a utilizar la IA en la aplicación de la ley, historias como la suya han planteado preguntas sobre los riesgos reales y las responsabilidades adicionales que conlleva la implementación de la inteligencia artificial. Esto también pone de manifiesto una necesidad imperiosa de conjuntos de datos más precisos y algoritmos mejor diseñados que puedan manejar algunas de las complejidades del comportamiento humano.
El holandés ha presentado una apelación contra la multa, que puede tardar hasta 26 semanas en recibir un veredicto oficial. Hasta entonces, su historia sirve como advertencia sobre los límites de la IA en los sistemas públicos. La tecnología puede mejorar la precisión y la eficiencia, pero errores como este también plantean cuestiones de responsabilidad y equidad en los casos en que los sistemas de IA fallan
Cómo equilibrar la IA y el juicio humano
El caso, en esencia, exige un mejor entrenamiento de la IA y una estrecha integración entre los sistemas controlados por máquinas y la intervención humana. Si bien la IA puede procesar datos voluminosos en menos tiempo, la tecnología aún falla a la hora de diferenciar pequeñas variaciones en el comportamiento, como rascarse la cabeza o hacer una llamada telefónica. Lo que se necesita es un delicado equilibrio entre la eficiencia de la IA y el juicio humano para garantizar que la tecnología sirva a la justicia y no la engañe.
Por ahora, la multa escalofriante impuesta a Tim Hansen es un recordatorio estremecedor del enorme potencial de la IA y sus peligros en la aplicación de la ley moderna.