Olivier Sibony (HEC) : "Le jugement humain est-il déjà dépassé par l’IA ?"
Dans un monde où les progrès de l’IA sont si rapides qu’on n’arrive plus à les suivre, quelle compétence distinctive devrions-nous cultiver pour lui tenir tête ? À cette question existentielle, nombre de dirigeants ont une réponse toute trouvée. Il existe, nous disent-ils, une aptitude indispensable pour prendre les bonnes décisions dans les affaires comme dans la vie, et que les machines n’égaleront jamais : le jugement.
Blair Effron, banquier d’affaires de réputation mondiale, en souligne l’importance dans le New York Times. Pour fixer le juste prix dans une transaction complexe, l’IA, estime-t-il, n’arrive pas à la cheville d’une éducation classique : "le jugement ne peut être automatisé." Dans la Harvard Business Review, le consultant David Duncan s’inquiète que les jeunes managers ne parviennent plus à développer leur jugement, puisque en utilisant l’IA, ils se privent d’occasions de l’exercer. Dans un livre récent, le psychologue Barry Schwartz théorise les expériences de ces praticiens : "prendre de bonnes décisions, c’est une affaire de jugement, pas de calcul".
Tout cela est rassurant – comme on se rassurait naguère en pensant qu’un ordinateur ne pourrait jamais jouer au go, soutenir une conversation, ou rédiger un devoir de philosophie. Mais que recouvre ce mystérieux "jugement" ? Pour Duncan, c’est "la capacité d'agir avec sagesse quand les règles seules ne suffisent pas". Comme remplacer "jugement" par "sagesse" ne fait guère progresser la réflexion, un exemple illustre son propos. Deux cadres sont en désaccord sur l’opportunité de lancer un produit. L’un des deux craint que le produit ne soit encore trop imparfait. L’autre estime qu’il serait plus risqué encore d’attendre et de céder le terrain aux concurrents. Conclusion : "aucun des deux n’a tort", car c’est une affaire de jugement.
Des jugements éthiques de l’IA jugés plus fiables
L’incohérence de cette conception du jugement saute aux yeux. Si aucun des deux cadres n’a tort, lequel a raison ? Que doit faire l’entreprise qui les paie justement pour exercer ce précieux jugement ? Et si l’on renvoie dos à dos des jugements opposés, que signifie cultiver un bon jugement ?
De fait, cet exemple est bien un problème de jugement. Ce n’est pas un simple calcul (sinon, on pourrait départager les deux managers) ni une affaire de goût ou d’opinion (où des points de vue divergents seraient bienvenus). Mais cela ne signifie pas que toutes les réponses se valent. Ce qui caractérise une question de jugement, c’est qu’elle admet une bonne réponse, mais une bonne réponse que nous ne connaissons pas (ou pas encore).
Nous devrions donc nous demander si l’IA peut trouver cette bonne réponse aussi souvent, ou plus souvent, que la plupart d’entre nous. Rien, en principe, ne s’y oppose. Au contraire : prendre en compte une multiplicité d’informations de natures différentes, y reconnaître des motifs tirés de l’expérience, et choisir la voie qui, dans l’incertitude, a le plus de chances d’être correcte, c’est justement ce que l’IA fait mieux que nous. Quantité d’études le démontrent déjà. L’IA formule des jugements éthiques qui semblent plus dignes de confiance et plus réfléchis que ceux d’éthiciens de premier plan. Elle parvient mieux que des médiateurs humains à faire émerger un consensus dans une délibération démocratique. Les chatbots sont souvent perçus comme plus empathiques que les professionnels de santé. Et ces résultats, obtenus avec des modèles déjà obsolètes, seraient plus spectaculaires encore aujourd’hui.
La revanche du management
Alors, tous inutiles, tous esclaves de l’IA ? Non, bien sûr. Car à force de glorifier la décision comme une prérogative suprême, on en oublie qu’elle ne se prend pas dans le vide. Avant d’exercer son jugement (ou celui d’une IA), il faut comprendre les aspirations, percevoir les inquiétudes, hiérarchiser les objectifs. Au moment du choix, il faut transmettre l’énergie, inspirer confiance, pousser à l’action. Ce n’est pas un hasard si l’une des rares études récentes où l’humain conserve l’avantage dans la comparaison avec l’IA porte sur le coaching : pour aider un humain à progresser, il faut être humain. Et une fois la décision prise, il faut en assumer la responsabilité et en supporter les conséquences, y compris sur sa réputation personnelle.
En somme, qu’on décide avec son jugement ou avec une IA, la décision ne fait pas le manager. Arthur Mensch, PDG de Mistral AI, semble presque s’en étonner quand il explique à un auditoire de polytechniciens : "votre plus grande valeur en tant que personne, c’est votre capacité relationnelle, à comprendre les gens, à les organiser." On ne saurait mieux dire que la compétence clef de demain n’est pas le jugement : c’est le management.
*Olivier Sibony, professeur à HEC Paris, est l’auteur, avec Éric Hazan, de Faut-il encore décider ? La décision humaine à l’ère de l’IA (Flammarion, 240 p., 19 euros).





