Problème 6155
- Les endoscopistes initiés aux outils d'assistance à l'IA lors des coloscopies présentaient un taux de détection d'anomalies plus faible après le retrait de ces outils, selon une étude publiée ce mois-ci dans la revue Lancet Gastroenterology & Hepatology. Le Dr Marcin Romańczyk, qui a mené l'étude, a déclaré que les résultats étaient surprenants et a émis l'hypothèse que la baisse des taux de détection était en partie due à une dépendance excessive à l'IA. Dans des secteurs critiques comme l'aviation, où des vies sont en jeu, des preuves ont déjà été apportées que les professionnels s'appuient trop sur l'automatisation au détriment de la sécurité.
L'intelligence artificielle peut être une solution prometteuse pour accroître la productivité au travail, mais s'appuyer trop sur la technologie peut empêcher les professionnels de maintenir leurs propres compétences à jour. Plus précisément, il semble que l'IA pourrait rendre certains médecins moins performants dans la détection d'irrégularités lors des examens de routine, selon une nouvelle étude, ce qui soulève des inquiétudes quant à une dépendance excessive des spécialistes à cette technologie.
Une étude publiée ce mois-ci dans la revue Lancet Gastroenterology & Hepatology a révélé que chez 1 443 patients ayant subi une coloscopie avec et sans système assisté par IA, les endoscopistes initiés à un système d'assistance par IA sont passés de 28,4 % à 22,4 % de polypes potentiels détectés avec la technologie après avoir cessé d'utiliser les outils d'IA auxquels ils avaient été initiés, soit une baisse de 20 % des taux de détection.
L'incapacité des médecins à détecter autant de polypes sur le côlon lorsqu'ils n'utilisaient plus l'assistance par IA a été une surprise pour le Dr Marcin Romańczyk, gastro-entérologue au H-T. Medical Center de Tychy, en Pologne, et auteur de l'étude. Les résultats remettent en question non seulement une paresse potentielle r ésultant d'une dépendance excessive à l'IA, mais aussi l'évolution de la relation entre les médecins et une longue tradition de formation analogique.
« On nous a appris la médecine dans les livres et auprès de nos mentors. Nous les observions. Ils nous disaient quoi faire », a déclaré Romańczyk. « Et maintenant, un objet artificiel nous suggère ce que nous devrions faire, où regarder, et en réalité, nous ne savons pas comment nous comporter dans ce cas précis. »
Au-delà de l'utilisation croissante de l'IA dans les blocs opératoires et les cabinets médicaux, la prolifération de l'automatisation sur le lieu de travail a suscité de grands espoirs d'amélioration des performances. Goldman Sachs a prédit l'année dernière que la technologie pourrait augmenter la productivité de 25 %. Cependant, des recherches récentes ont également mis en garde contre les dangers liés à l'adoption d'outils d'IA sans tenir compte de leurs effets négatifs. Une étude menée par Microsoft et l'Université Carnegie Mellon en début d'année a révélé que, parmi les travailleurs du savoir interrogés, l'IA augmentait l'efficacité au travail, mais réduisait l'engagement critique envers le contenu, atrophiant ainsi les capacités de jugement.
L'étude de Romańczyk contribue à ce corpus croissant de recherches remettant en question la capacité des humains à utiliser l'IA sans compromettre leurs propres compétences. Dans son étude, les systèmes d'IA ont permis d'identifier les polypes du côlon en encadrant la zone où se trouverait une anomalie. Romańczyk et son équipe ont bien mesuré les raisons du comportement des endoscopistes, car ils n'avaient pas anticipé ce résultat et n'ont donc pas collecté de données sur les causes de ce phénomène.
Au contraire, Romańczyk suppose que les endoscopistes se sont tellement habitués à rechercher le cadre vert que, lorsque la technologie a disparu, les spécialistes n'ont plus eu le signal nécessaire pour prêter attention à certaines zones. Il a appelé ce phénomène « l'effet Google Maps », comparant les résultats de ses recherches aux changements intervenus chez les conducteurs lors de la transition de l'ère des cartes papier à celle du GPS : de nombreuses personnes s'appuient désormais sur l'automatisation pour trouver l'itinéraire le plus efficace, alors qu'il y a 20 ans, il fallait le trouver soi-même.
Freins et contrepoids de l'IA
Les conséquences concrètes de l'automatisation sur l'atrophie des compétences critiques humaines sont déjà bien établies. En 2009, le vol Air France 447 reliant Rio de Janeiro à Paris s'est écrasé dans l'océan Atlantique, tuant les 228 passagers et membres d'équipage à bord. Une enquête a révélé que le pilote automatique de l'avion avait été débranché, que des cristaux de glace avaient perturbé ses capteurs de vitesse et que le directeur de vol automatique de l'appareil donnait des informations erronées. Cependant, le personnel navigant n'était pas correctement formé au pilotage manuel dans ces conditions et a suivi les instructions erronées du directeur de vol automatique au lieu d'apporter les corrections appropriées. L'accident d'Air France est l'un des nombreux accidents survenus au cours desquels les pilotes n'ont pas reçu de formation, s'appuyant sur les fonctions automatisées de l'avion.
« Nous sommes confrontés à une situation où les pilotes ne peuvent comprendre le comportement de l'avion que si un ordinateur l'interprète pour eux », a déclaré William Voss, président de la Flight Safety Foundation, lors de l'enquête sur Air France. « Ce problème n'est pas propre à Airbus ni à Air France. Il s'agit d'un nouveau défi de formation auquel l'ensemble du secteur doit faire face. » Ces incidents amènent des périodes de réflexion, en particulier pour les secteurs critiques où des vies humaines sont en jeu, selon Lynn Wu, professeure agrégée d'opérations, d'information et de décisions à la Wharton School de l'Université de Pennsylvanie. Si les industries devraient s'appuyer sur la technologie, a-t-elle déclaré, il incombe aux institutions de s'assurer que les humains l'adoptent correctement.
« Ce qui est important, c'est que nous tirions les leçons de l'histoire de l'aviation et de la génération précédente d'automatisation : l'IA peut absolument améliorer les performances », a déclaré Mme Wu à Fortune. « Mais en même temps, nous devons maintenir ces compétences essentielles, afin que lorsque l'IA ne fonctionne pas, nous sachions comment prendre le relais. »
De même, Romańczyk n'exclut pas la présence de l'IA en médecine.
« L'IA fera, ou fait, partie de notre vie, que nous le voulions ou non », a-t-il déclaré. « Nous ne cherchons pas à affirmer que l'IA est mauvaise et à cesser de l'utiliser. Nous affirmons plutôt que nous devrions tous nous efforcer d'étudier ce qui se passe dans notre cerveau, comment elle nous affecte. Comment pouvons-nous l'utiliser efficacement ? »
Si les professionnels et les spécialistes souhaitent continuer à utiliser l'automatisation pour améliorer leur travail, il leur incombe de conserver leurs compétences essentielles, a déclaré Wu. L'IA s'appuie sur des données humaines pour s'auto-entraîner, ce qui signifie que si son apprentissage est défaillant, ses résultats le seront également.