Quand l'IA rencontre le jugement humain
Traduction réalisée par ChatGPT+
Quand l’IA rencontre le jugement humain : Optimiser la prise de décision pour sauver des vies et améliorer la performance
HEC Paris
Que se passerait-il si les outils d’intelligence artificielle (IA) pouvaient aider les médecins hospitaliers à réduire les taux de mortalité de 20 %, en identifiant les patients à haut risque avant qu’il ne soit trop tard ? L’IA est devenue un outil de plus en plus puissant dans les processus de prise de décision à travers divers secteurs. Pour exploiter pleinement son potentiel, les décideurs doivent s’appuyer sur des modèles robustes qui réduisent les risques liés aux vulnérabilités de sécurité, à la manipulation, aux biais, ainsi qu’au manque de transparence et d’explicabilité. Cependant, un angle mort demeure : que se passe-t-il si les humains préfèrent tout simplement leur propre jugement aux recommandations algorithmiques, s’appuyant sur leur expertise ou leur connaissance du contexte ? Traiter les barrières psychologiques et la résistance culturelle pourrait être tout aussi important que de gérer les risques de sécurité pour développer une IA de confiance capable de réaliser de véritables avancées.
Les recherches menées par le professeur de HEC Paris et titulaire de la chaire Hi! PARIS, Julien Grand-Clément, démontrent que les algorithmes conçus pour prendre en compte les déviations humaines — en anticipant le fait que les recommandations ne seront pas pleinement suivies — peuvent améliorer significativement la prise de décision dans divers secteurs. Son travail propose de nouvelles approches pour aligner les recommandations de l’IA sur le comportement humain, menant ainsi à de meilleurs résultats.
Dans les scénarios du monde réel, les décideurs — qu’il s’agisse de gestionnaires, de médecins ou de responsables politiques — ignorent souvent ou n’appliquent que partiellement les recommandations de l’IA. Alors que les algorithmes peuvent analyser d’innombrables données, les humains se fient souvent au contexte, à l’intuition et à la praticité. Cet écart entre les conseils algorithmiques et le comportement humain, appelé “adhérence partielle”, peut limiter l’efficacité des systèmes d’IA.
Contrairement aux algorithmes traditionnels qui supposent une conformité totale, les recherches de Julien Grand-Clément introduisent des algorithmes tenant compte de l’adhérence (basés sur le cadre des processus de décision de Markov). Ceux-ci prennent en compte le comportement humain réel. En analysant les tendances sur les raisons et les moments où les décideurs s’écartent des recommandations, le modèle ajuste ses recommandations pour optimiser les résultats, même si les conseils ne sont pas suivis à la lettre.
Par exemple, il a appliqué ce modèle à un problème fréquent en gestion des opérations : décider du moment opportun pour réparer ou remplacer une machine. En tenant compte de différents niveaux d’adhérence (c’est-à-dire si les décideurs suivent ou non les recommandations), le modèle a réduit de manière significative les pertes de performance par rapport aux approches traditionnelles. L’alignement de la conception algorithmique sur le comportement humain permet aux organisations d’améliorer la prise de décision et la performance globale.
Ce cadre est d’autant plus prometteur dans les secteurs où le jugement humain reste essentiel. Dans une autre recherche, le professeur Grand-Clément explore comment l’IA et les règles de décision tenant compte de l’adhérence peuvent identifier les patients dont l’état de santé risque le plus de se dégrader, et les envoyer de manière proactive en unité de soins intensifs (ICU). Avec son équipe de recherche, il a analysé près de 300 000 hospitalisations dans les établissements Kaiser Permanente aux États-Unis. Le résultat ? Une politique de transfert proactive basée sur ce modèle d’IA pourrait réduire les taux de mortalité en soins intensifs jusqu’à 20 %.
En somme, cette recherche prouve que les meilleures solutions d’IA sont celles qui intègrent le comportement humain plutôt que de le contrer. Les organisations peuvent tirer parti de ces résultats pour concevoir des systèmes qui ne reposent pas uniquement sur une perfection théorique, mais qui prospèrent dans des environnements pratiques et centrés sur l’humain, optimisant ainsi leur performance.
Cet article a été publié dans le cadre de notre newsletter LinkedIn “HEC Research Shows”. Ne manquez pas de vous inscrire pour recevoir régulièrement des analyses académiques qui nourriront votre croissance professionnelle.
Cet article est basé sur deux publications scientifiques :
• Julien Grand-Clément et Jean Pauphilet, “The Best Decisions Are Not the Best Advice: Making Adherence-Aware Recommendation”, Management Science, 10 juin 2024.
• Julien Grand-Clément, Carri W. Chan, Vineet Goyal, Gabriel Escobar, “Robustness of Proactive Intensive Care Unit Transfer Policies”, Operation Research, Volume 71, Numéro 5, septembre-octobre 2023.
À lire également :
• “Sauver des vies en soins intensifs grâce à l’IA”, Knowledge@HEC, 29 janvier 2025.
• Numéro spécial de Knowledge@HEC sur l’AI Action Summit.
En savoir plus sur le centre Hi! PARIS – AI for Science, Business & Society.
RGPD
IDP – Institut de Discernement Professionnel
80, avenue Léo Lagrange – 59000 Lille
Tél. 06 76 05 73 76
©2025 - IDP - Tous droits réservés.
