Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6155

Loading...
Un estudio revela que los médicos que utilizaron asistencia de IA en sus procedimientos se volvieron un 20% peores a la hora de detectar anomalías por sí solos, lo que aumenta la preocupación por la dependencia excesiva.
fortune.com · 2025

Los endoscopistas que utilizaron herramientas de asistencia con IA durante las colonoscopias tuvieron una menor tasa de detección de anomalías tras la retirada de dichas herramientas, según un estudio publicado este mes en la revista Lancet Gastroenterology & Hepatology. El Dr. Marcin Romańczyk, director del estudio, afirmó que los resultados fueron sorprendentes y especuló que la disminución en las tasas de detección se debió, en parte, a la excesiva dependencia de la IA. En sectores críticos como la aviación, donde hay vidas en juego, ya existen pruebas de que los profesionales dependen demasiado de la automatización en detrimento de la seguridad.

La inteligencia artificial puede ser una forma prometedora de impulsar la productividad laboral, pero depender demasiado de la tecnología puede impedir que los profesionales mantengan sus habilidades al día. Más concretamente, parece que la IA podría estar empeorando la capacidad de algunos médicos para detectar irregularidades durante las revisiones rutinarias, según una nueva investigación, lo que genera preocupación entre los especialistas por la excesiva dependencia de la tecnología.

Un estudio publicado este mes en la revista Lancet Gastroenterology & Hepatology reveló que, en 1443 pacientes sometidos a colonoscopias con y sin sistemas asistidos por IA, los endoscopistas que usaron un sistema de asistencia con IA pasaron de detectar pólipos potenciales a una tasa del 28,4 % con la tecnología al 22,4 % después de dejar de usar las herramientas de IA, lo que representa una reducción del 20 % en las tasas de detección.

El hecho de que los médicos no detectaran tantos pólipos en el colon al dejar de usar la asistencia con IA sorprendió al Dr. Marcin Romańczyk, gastroenterólogo del Centro Médico H-T. de Tychy (Polonia) y autor del estudio. Los resultados no solo cuestionan la posible pereza derivada de una dependencia excesiva de la IA, sino también la cambiante relación entre los profesionales médicos y una larga tradición de formación analógica.

"Aprendíamos medicina en libros y con nuestros mentores. Los observábamos. Nos decían qué hacer", afirmó Romańczyk. "Y ahora hay un objeto artificial que nos sugiere qué debemos hacer, dónde debemos mirar, y en realidad no sabemos cómo comportarnos en ese caso particular".

Más allá del creciente uso de la IA en quirófanos y consultorios médicos, la proliferación de la automatización en el entorno laboral ha generado grandes esperanzas de mejorar el rendimiento laboral. Goldman Sachs predijo el año pasado que la tecnología podría aumentar la productividad en un 25%. Sin embargo, investigaciones recientes también advierten sobre los riesgos de adoptar herramientas de IA sin considerar sus efectos negativos. Un estudio realizado por Microsoft y la Universidad Carnegie Mellon a principios de este año reveló que, entre los trabajadores del conocimiento encuestados, la IA aumentó la eficiencia laboral, pero redujo la interacción crítica con el contenido, lo que atrofia la capacidad de juicio.

El estudio de Romańczyk contribuye a este creciente corpus de investigación que cuestiona la capacidad de los humanos para usar la IA sin comprometer sus propias habilidades. En su estudio, los sistemas de IA ayudaron a identificar pólipos en el colon al colocar un recuadro verde alrededor de la región donde se encontraría la anomalía. Sin duda, Romańczyk y su equipo midieron por qué los endoscopistas se comportaban de esta manera, ya que no anticiparon este resultado y, por lo tanto, no recopilaron datos sobre su causa.

En cambio, Romańczyk especula que los endoscopistas se acostumbraron tanto a buscar el recuadro verde que, cuando la tecnología dejó de estar disponible, los especialistas perdieron esa señal para prestar atención a ciertas áreas. Lo denominó el "efecto Google Maps", comparando los resultados de su investigación con los cambios que experimentaron los conductores al pasar de la era de los mapas de papel a la del GPS: muchas personas ahora confían en la automatización para mostrar la ruta más eficiente, mientras que hace 20 años, uno tenía que encontrarla por sí mismo.

Controles y contrapesos en la IA

Las consecuencias reales de la automatización que debilita las habilidades humanas cruciales ya están bien establecidas.

En 2009, el vuelo 447 de Air France, que cubría la ruta de Río de Janeiro a París, se precipitó al océano Atlántico, causando la muerte de los 228 pasajeros y tripulantes a bordo. Una investigación (https://pmc.ncbi.nlm.nih.gov/articles/PMC3461665/#:~:text=On%201%20June%202009%2C%20Air,undertook%20the%20appropriate%20recovery%20maneuvers.) reveló que el piloto automático del avión se había desconectado, que cristales de hielo habían alterado sus sensores de velocidad aerodinámica y que el director de vuelo automatizado de la aeronave proporcionaba información inexacta. Sin embargo, el personal de vuelo no recibió una capacitación adecuada para volar manualmente en estas condiciones y siguió las instrucciones erróneas del director de vuelo automatizado en lugar de realizar las correcciones pertinentes. El accidente de Air France es uno de varios accidentes en los que los humanos no recibieron capacitación adecuada, sino que dependieron de las funciones automatizadas de la aeronave.

"Estamos presenciando una situación en la que los pilotos no pueden comprender lo que hace el avión a menos que una computadora se lo interprete", declaró William Voss, presidente de la Fundación para la Seguridad en el Vuelo, durante la investigación de Air France. Este no es un problema exclusivo de Airbus ni de Air France. Se trata de un nuevo reto de formación que toda la industria debe afrontar.

Estos incidentes traen consigo momentos de reflexión, especialmente para sectores críticos donde hay vidas humanas en juego, según Lynn Wu, profesora asociada de Operaciones, Información y Decisiones en la Wharton School de la Universidad de Pensilvania. Si bien las industrias deberían apoyarse en la tecnología, afirmó, la responsabilidad de garantizar que los humanos la adopten adecuadamente debería recaer en las instituciones.

"Lo importante es que aprendamos de la historia de la aviación y de la generación anterior de automatización, que la IA sin duda puede mejorar el rendimiento", declaró Wu a Fortune. "Pero, al mismo tiempo, debemos mantener esas habilidades críticas, de modo que cuando la IA no funcione, sepamos cómo tomar el control".

De igual manera, Romańczyk no descarta la presencia de la IA en la medicina. "La IA formará, o forma parte, de nuestra vida, nos guste o no", afirmó. "No pretendemos decir que la IA sea mala ni que debamos dejar de usarla. Más bien, proponemos que todos deberíamos investigar qué sucede en nuestro cerebro, cómo nos afecta y cómo podemos usarla eficazmente".

Si los profesionales y especialistas desean seguir utilizando la automatización para mejorar su trabajo, les conviene conservar sus habilidades esenciales, afirmó Wu. La IA se basa en datos humanos para entrenarse, lo que significa que si su entrenamiento falla, también lo hará su resultado.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd