Problème 5582
Presque tous les responsables RH aux États-Unis utilisent l'IA au travail, et une majorité d'entre eux s'y fient pour décider qui obtient une promotion, une augmentation ou un licenciement, selon une nouvelle enquête.
Selon un sondage de ResumeBuilder, votre parcours professionnel pourrait dépendre d'un chatbot IA. En effet, votre responsable pourrait ne pas prendre la peine de faire ses propres recherches, préférant faire confiance à un outil comme ChatGPT pour décider de vous promouvoir ou de vous licencier.
L'enquête, menée auprès de 1 342 managers, a révélé que 66 % d'entre eux ont consulté un modèle de langage large (MLL) tel que ChatGPT pour obtenir des conseils sur les licenciements. Une majorité utilise également l'IA pour déterminer les augmentations (78 %) et les promotions (77 %).
Si l'IA est utilisée depuis longtemps pour filtrer les CV et évaluer les données de performance, il semble que son intégration soit bien plus profonde et influence directement les conditions de vie des employés.
Cela soulève de sérieuses inquiétudes quant à l'éthique et à la responsabilité au travail, car il semble que les humains deviennent des tampons pour les décisions des machines et ne soient plus aux commandes.
Plus inquiétant encore, près d'un manager sur cinq admet avoir laissé l'IA prendre la décision finale, sans aucune intervention humaine. Cependant, presque tous se disent prêts à intervenir s'ils sont en désaccord avec une recommandation basée sur l'IA.
Plus surprenant encore, les deux tiers des managers (32 %) qui utilisent l'IA pour gérer leurs employés n'ont reçu aucune formation formelle en IA.
Stacie Haller, conseillère en carrière en chef chez Resume Builder, a déclaré que des risques surviennent lorsque les managers s'appuient sur l'IA pour prendre des décisions sans formation adéquate.
Près d'un manager sur cinq a admis avoir laissé l'IA prendre la décision finale, sans aucune intervention humaine.
« Il est essentiel de ne pas perdre de vue l'humain dans la gestion des ressources humaines. Si l'IA peut fournir des informations fondées sur les données, elle manque de contexte, d'empathie et de jugement. Les résultats de l'IA reflètent les données qui lui sont fournies, qui peuvent être erronées, biaisées ou manipulées », a déclaré Haller.
« Les organisations ont la responsabilité de mettre en œuvre l'IA de manière éthique afin d'éviter toute responsabilité juridique, de protéger leur culture d'entreprise et de maintenir la confiance de leurs employés », ajoute Haller.
Il existe également un problème appelé « problème de flagornerie des LLM », la tendance des LLM à refléter et à renforcer les propres convictions de l'utilisateur en fournissant des réponses biaisées ou déséquilibrées qui ne font que valider les opinions préconçues du manager.
Bien sûr, il y a plus. Le Washington Post a récemment rapporté que des agents d'IA aux États-Unis mènent désormais des entretiens préliminaires afin de sélectionner les candidats avant même qu'ils ne les voient.
D'autre part, les demandeurs d'emploi se tournent également vers l'IA pour adapter rapidement leurs CV et lettres de motivation afin de pouvoir postuler instantanément.