Indicateurs et concurrence ?artificiellement orchestrée
Version originale en allemand
Ces dernières décennies les chiffres clés et les indicateurs, portés par une foi croissante dans le marché et la concurrence, sont devenus omniprésents, y compris dans les domaines de l’éducation, de la santé ou de l’action sociale. Ils expriment sous une forme numérique des concepts abstraits socialement valorisés, tels que la performance, l’innovation, l’efficacité ou la qualité. Le principe fondamental étant que la concurrence est mère de l’efficacité, même dans les secteurs où le marché n’existe pas ou n’est pas opérant. Or ce principe est très discutable.
Le marché et la concurrence ne sont pas frère et sœur siamois. Dans de nombreux domaines de la société, il n’existe pas de marchés ou seulement des marchés fonctionnant de manière incomplète. En revanche, il existe une concurrence artificiellement créée ou orchestrée. Cela concerne surtout les domaines de l’éducation, de la santé ou de l’action sociale, prétendument rendus efficaces par la concurrence. L’impression prévaut que de cette façon, des ressources ou des prestations peuvent être allouées de façon efficace. Mais une concurrence artificiellement orchestrée peut finir par fournir des incitations perverses qui, logiquement, débouchent sur des résultats pervers.
Contrairement à un 100 mètres, où c’est le ou la plus rapide qui remporte la compétition, ou à la chaîne de montage d’une usine, où le nombre de pièces traduit la performance, la plupart des performances sont aujourd’hui complexes à évaluer, car la qualité y joue aussi un rôle. On tente par conséquent de rendre les performances mesurables et évaluables à l’aide de chiffres-clés et d’indicateurs. Ce phénomène s’observe dans certains sports où la qualité a son mot à dire, comme le patinage artistique. Il y a dans cette discipline un jury d’experts dont les membres sont capables, souvent de manière mystérieuse, d’attribuer un nombre précis de points au programme libre d’un·e patineur·euse. L’indicateur de qualité est essentiellement le nombre de triples, voire aujourd’hui de quadruples sauts réussis. Ainsi, le patinage artistique est devenu un spectacle étrange, dans lequel un programme libre sert de prétexte à exécuter devant un jury d’expert·e·s en un temps réduit le plus grand nombre possible d’axels, de salchows ou de boucles. En réalité, il ne s’agit plus là de fournir de la qualité, mais d’impressionner le jury par une quantité mesurable. On commence à se concentrer sur les aspects mesurables de la qualité, et l’on néglige d’autres aspects non mesurables, ce dont la qualité dans son ensemble souffre souvent.
Malgré cela, depuis les années 1990, de nouvelles méthodes de management ont orchestré des concurrences artificielles avec des chiffres-clés et des indicateurs, notamment le tableau de bord prospectif et le benchmark. Ces méthodes ont fait, dans le cadre de la nouvelle gestion publique (New Public Management) et de sa variante suisse, la gestion administrative axée sur les résultats, leur entrée également dans les domaines de l’éducation, de la santé et de l’action sociale. Or, ce qui est déjà la plupart du temps problématique au sein de l’entreprise privée devient un véritable village Potemkine dans le cadre de l’administration publique. Derrière la façade des chiffres-clés prétendument objectifs d’un tableau de bord prospectif ou d’un benchmark se cache le plus souvent un non-sens habillé de chiffres.
Les deux méthodes ont pour but d’optimiser autant que possible la performance d’une entreprise ou d’une organisation et de ses services. Le tableau de bord prospectif a vocation à déterminer la situation d’une entreprise ou d’une organisation à l’aide de chiffres-clés quantitatifs, puis à définir les modes de management en fonction de ces chiffres. Il en résulte des orientations stratégiques et politiques que les entreprises ou les administrations publiques se donnent comme objectifs. Dans le benchmark, la comparaison entre les coûts, la performance, les effets, les processus, les technologies ou les structures de différentes unités (départements, entreprises, organisations) à l’aide de chiffres-clés prédéfinis ou de normes est fondamentale. Ces derniers sont censés permettre de déterminer ce qu’on appelle les « bonnes pratiques », auxquelles il y a lieu de se conformer en révélant le potentiel d’amélioration et en s’inspirant des « meilleur·e·s ».
Ce type de systèmes, fondés sur des chiffres-clés ou des indicateurs, ne garantissent ni la qualité ni l’efficacité d’une offre, mais ils risquent de standardiser la performance et de fournir des incitations perverses. Dans le domaine de l’éducation, l’exemple des études PISA, menées dans la zone de l’Organisation de coopération et de développement économiques (OCDE) depuis 2000, illustre la manière dont les résultats moyens des écolières et écoliers, en tant qu’indicateurs, sont censés rendre compte de l’efficacité du système scolaire sur l’éducation des personnes. Or, ces études se concentrent exclusivement sur les compétences examinées et négligent ainsi d’autres matières au détriment de la culture générale. Partant de l’idée qu’il permettra d’améliorer la performance et la qualité, au moyen des classements (rankings) et des bonnes pratiques, cet « apprentissage sur l’exemple des meilleur·e·s » dégénère en course mondiale dans laquelle toutes et tous courent après « les meilleur·e·s ». Et « les meilleur·e·s » sont celles et ceux qui obtiennent les meilleurs résultats en fonction de chiffres-clés fixés de manière arbitraire.
On observe le même phénomène dans le domaine de la santé, où les programmes pay for performance (P4P) ont trouvé un écho en Suisse aussi. Rémunérer sur la base de leur performance des médecins qui recevront plus ou moins d’argent de la part des caisses-maladie selon la qualité de leurs traitements a pour conséquence qu’ils et elles effectuent de plus en plus d’examens inutiles ou prescrivent hâtivement des médicaments, parce que cela entraîne davantage de « qualité » mesurable. Ce qui débouche non pas sur des économies, mais sur une augmentation des volumes qui contribue largement à la hausse constante des coûts de la santé.
Dans l’action sociale, on trouve une autre incitation potentiellement perverse là où des indicateurs mesurent l’exécution réussie de certaines activités. Si, par exemple, les offices de placement sont jugés en fonction du nombre de chômeuses et de chômeur·euse·s replacé·e·s avec succès, ils ont intérêt à ne plus s’occuper que des chômeuses et des chômeur·euse·s faciles à placer, et à se détourner des cas plus épineux. Dans le jargon technique, on appelle cela le problème de la sélectivité ou de l’écrémage, que l’on retrouve aussi dans l’aide sociale. Lorsque, par exemple, les mesures de réadaptation doivent déboucher sur de l’insertion professionnelle, les entreprises de coaching mandatées sélectionnent de préférence les personnes promettant le plus de succès. Les cas difficiles restent en plan.
Plus les systèmes d’indicateurs sont complexes, plus les incitations générées le sont aussi. En fin de compte, la complexité des indicateurs peut devenir une véritable « boîte noire ». Pour les personnes concernées, il devient alors de plus en plus difficile de savoir comment se comporter pour obtenir des résultats aussi bons que possible avec les indicateurs. Les incitations et l’amélioration des performances échouent, mais le développement, l’analyse et l’évaluation des indicateurs entraînent un surcroît très important de travail administratif.
Il existe aujourd’hui une littérature abondante sur la manière dont les gens réagissent, en termes de comportement, lorsqu’on introduit des chiffres-clés pour mesurer leur performance. Cette littérature montre que les gens sont souvent très créatifs lorsqu’il s’agit d’obtenir les meilleurs résultats possibles avec des chiffres-clés, et ce sans nécessairement améliorer la performance réellement pertinente voire en améliorant les chiffres-clés au détriment de cette performance. Le problème réside ici dans le fait que de nombreux·ses spécialistes considèrent de telles réactions comme des exceptions et non comme la règle.
La conclusion qu’il faut en tirer est que la qualité et la performance d’un service ne peuvent que très difficilement être représentées sous une forme numérique. Au contraire, le fait de réduire la qualité et la performance à des indicateurs quantitativement mesurables peut engendrer de nouvelles incitations perverses, qui sont généralement d’autant plus grandes que la corrélation des indicateurs avec la performance qualitative souhaitée est faible et qu’il est possible d’améliorer les indicateurs sans améliorer la performance visée, voire au détriment de celle-ci. C’est ce qu’on appelle le paradoxe de la performance.
Par conséquent, la concurrence artificiellement orchestrée ne constitue pas une solution adéquate pour améliorer la qualité et l’efficacité. Elle risque au contraire de générer de dangereuses incitations, qui poussent à produire du non-sens mesurable, tandis que la qualité réelle reste sur la touche.
Références
Binswanger, M. (2010). Sinnlose Wettbewerbe: Warum wir immer mehr Unsinn produzieren. Freiburg i.B.: Herder.Binswanger, M. (2013). Künstliche Wettbewerbe im Bildungswesen. Journal für Schulentwicklung, 17, 15–18.
Simon, M. (2001). Die Ökonomisierung des Krankenhauses: Der wachsende Einfluss ökonomischer Ziele auf patientenbezogene Entscheidungen. Berlin: Wissenschaftszentrum Berlin für Sozialforschung.