Problema 6155
Los endoscopistas que utilizaron herramientas de asistencia con IA durante las colonoscopias tuvieron una menor tasa de detección de anomalías tras la retirada de dichas herramientas, según un estudio publicado este mes en la revista Lancet Gastroenterology & Hepatology. El Dr. Marcin Romańczyk, director del estudio, afirmó que los resultados fueron sorprendentes y especuló que la disminución en las tasas de detección se debió, en parte, a la excesiva dependencia de la IA. En sectores críticos como la aviación, donde hay vidas en juego, ya existen pruebas de que los profesionales dependen demasiado de la automatización en detrimento de la seguridad.
La inteligencia artificial puede ser una forma prometedora de impulsar la productividad laboral, pero depender demasiado de la tecnología puede impedir que los profesionales mantengan sus habilidades al día. Más concretamente, parece que la IA podría estar empeorando la capacidad de algunos médicos para detectar irregularidades durante las revisiones rutinarias, según una nueva investigación, lo que genera preocupación entre los especialistas por la excesiva dependencia de la tecnología.
Un estudio publicado este mes en la revista Lancet Gastroenterology & Hepatology reveló que, en 1443 pacientes sometidos a colonoscopias con y sin sistemas asistidos por IA, los endoscopistas que usaron un sistema de asistencia con IA pasaron de detectar pólipos potenciales a una tasa del 28,4 % con la tecnología al 22,4 % después de dejar de usar las herramientas de IA, lo que representa una reducción del 20 % en las tasas de detección.
El hecho de que los médicos no detectaran tantos pólipos en el colon al dejar de usar la asistencia con IA sorprendió al Dr. Marcin Romańczyk, gastroenterólogo del Centro Médico H-T. de Tychy (Polonia) y autor del estudio. Los resultados no solo cuestionan la posible pereza derivada de una dependencia excesiva de la IA, sino también la cambiante relación entre los profesionales médicos y una larga tradición de formación analógica.
"Aprendíamos medicina en libros y con nuestros mentores. Los observábamos. Nos decían qué hacer", afirmó Romańczyk. "Y ahora hay un objeto artificial que nos sugiere qué debemos hacer, dónde debemos mirar, y en realidad no sabemos cómo comportarnos en ese caso particular".
Más allá del creciente uso de la IA en quirófanos y consultorios médicos, la proliferación de la automatización en el entorno laboral ha generado grandes esperanzas de mejorar el rendimiento laboral. Goldman Sachs predijo el año pasado que la tecnología podría aumentar la productividad en un 25%. Sin embargo, investigaciones recientes también advierten sobre los riesgos de adoptar herramientas de IA sin considerar sus efectos negativos. Un estudio realizado por Microsoft y la Universidad Carnegie Mellon a principios de este año reveló que, entre los trabajadores del conocimiento encuestados, la IA aumentó la eficiencia laboral, pero redujo la interacción crítica con el contenido, lo que atrofia la capacidad de juicio.
El estudio de Romańczyk contribuye a este creciente corpus de investigación que cuestiona la capacidad de los humanos para usar la IA sin comprometer sus propias habilidades. En su estudio, los sistemas de IA ayudaron a identificar pólipos en el colon al colocar un recuadro verde alrededor de la región donde se encontraría la anomalía. Sin duda, Romańczyk y su equipo midieron por qué los endoscopistas se comportaban de esta manera, ya que no anticiparon este resultado y, por lo tanto, no recopilaron datos sobre su causa.
En cambio, Romańczyk especula que los endoscopistas se acostumbraron tanto a buscar el recuadro verde que, cuando la tecnología dejó de estar disponible, los especialistas perdieron esa señal para prestar atención a ciertas áreas. Lo denominó el "efecto Google Maps", comparando los resultados de su investigación con los cambios que experimentaron los conductores al pasar de la era de los mapas de papel a la del GPS: muchas personas ahora confían en la automatización para mostrar la ruta más eficiente, mientras que hace 20 años, uno tenía que encontrarla por sí mismo.
Controles y contrapesos en la IA
Las consecuencias reales de la automatización que debilita las habilidades humanas cruciales ya están bien establecidas.
En 2009, el vuelo 447 de Air France, que cubría la ruta de Río de Janeiro a París, se precipitó al océano Atlántico, causando la muerte de los 228 pasajeros y tripulantes a bordo. Una investigación (https://pmc.ncbi.nlm.nih.gov/articles/PMC3461665/#:~:text=On%201%20June%202009%2C%20Air,undertook%20the%20appropriate%20recovery%20maneuvers.) reveló que el piloto automático del avión se había desconectado, que cristales de hielo habían alterado sus sensores de velocidad aerodinámica y que el director de vuelo automatizado de la aeronave proporcionaba información inexacta. Sin embargo, el personal de vuelo no recibió una capacitación adecuada para volar manualmente en estas condiciones y siguió las instrucciones erróneas del director de vuelo automatizado en lugar de realizar las correcciones pertinentes. El accidente de Air France es uno de varios accidentes en los que los humanos no recibieron capacitación adecuada, sino que dependieron de las funciones automatizadas de la aeronave.
"Estamos presenciando una situación en la que los pilotos no pueden comprender lo que hace el avión a menos que una computadora se lo interprete", declaró William Voss, presidente de la Fundación para la Seguridad en el Vuelo, durante la investigación de Air France. Este no es un problema exclusivo de Airbus ni de Air France. Se trata de un nuevo reto de formación que toda la industria debe afrontar.
Estos incidentes traen consigo momentos de reflexión, especialmente para sectores críticos donde hay vidas humanas en juego, según Lynn Wu, profesora asociada de Operaciones, Información y Decisiones en la Wharton School de la Universidad de Pensilvania. Si bien las industrias deberían apoyarse en la tecnología, afirmó, la responsabilidad de garantizar que los humanos la adopten adecuadamente debería recaer en las instituciones.
"Lo importante es que aprendamos de la historia de la aviación y de la generación anterior de automatización, que la IA sin duda puede mejorar el rendimiento", declaró Wu a Fortune. "Pero, al mismo tiempo, debemos mantener esas habilidades críticas, de modo que cuando la IA no funcione, sepamos cómo tomar el control".
De igual manera, Romańczyk no descarta la presencia de la IA en la medicina. "La IA formará, o forma parte, de nuestra vida, nos guste o no", afirmó. "No pretendemos decir que la IA sea mala ni que debamos dejar de usarla. Más bien, proponemos que todos deberíamos investigar qué sucede en nuestro cerebro, cómo nos afecta y cómo podemos usarla eficazmente".
Si los profesionales y especialistas desean seguir utilizando la automatización para mejorar su trabajo, les conviene conservar sus habilidades esenciales, afirmó Wu. La IA se basa en datos humanos para entrenarse, lo que significa que si su entrenamiento falla, también lo hará su resultado.