Le mirage de la modélisation en économie
LE MIRAGE DE LA MODÉLISATION EN ÉCONOMIE
Le mirage statistique déjà évoqué dans le cas des sciences de l’homme et de la société concerne aussi les sciences économiques, mais le contexte est différent : l’économie est quantifiée par la monnaie exprimée dans une unité de mesure (euro, dollar, yen etc.), dont l’analogie avec les unités de mesure classiques (mètre, heure, litre, volt etc.) lui donne une apparence de scientificité proche de celle que l’on accorde aux sciences exactes et appliquées.
3.1 Mathématiques et économie
L’analogie avec les sciences exactes se poursuit avec la formation élevée en mathématiques, parfois même très élevée, des économistes. Gérard Debreu (Nobel 1983) était agrégé de mathématiques et ancien élève de l’École normale supérieure, Maurice Allais (Nobel 1988) et Edmond Malinvaud, économiste français de renommée mondiale, sont des polytechniciens comme tous les administrateurs de l’INSEE. La formation scientifique des économistes permet de penser que la plupart des modèles sont exacts au plan mathématique.
Mais malgré son aspect scientifique, l’économie est une science humaine : la monnaie et toutes les grandeurs économiques, comme le taux de croissance, l’inflation, le chômage, le taux de productivité, le rendement du capital, le SMIC etc. sont des inventions de l’homme pour mesurer des faits humains et sociaux, et non des objets matériels. Même si l’erreur purement mathématique reste possible, c’est surtout dans ce champ humain qu’elles peuvent se produire.
Une erreur récente de ce genre a été reconnue par le FMI, dans le premier plan de sauvetage de la Grèce en 2010 pourtant accepté par la Banque centrale européenne et la Commission européenne. Ce sont « des paramètres fiscaux multiplicateurs » qui ont été sous-estimés. Il n’est pas important de connaître précisément le modèle utilisé. Très vraisemblablement, les calculs sont justes. La sous-estimation des paramètres n’est pas une erreur de calcul, elle est soit le résultat d’un autre modèle, soit un choix raisonné des économistes : cela revient toujours à ce dernier cas, parce qu’aucun modèle n’est autonome et qu’il y a nécessairement une intervention humaine à l’origine. Olivier Blanchard, économiste en chef du FMI, a reconnu avec honnêteté intellectuelle et courage que cette erreur a contribué à placer la Grèce dans une spirale économique négative au plan de sa croissance. Qui ne se trompe jamais ?
Comme je l’explique plus loin, la complexité mathématique des modèles ne joue pas non plus en leur faveur. La mathématisation systématique en économie est d’ailleurs de plus en plus contestée : l’hypothèse de « l’homo œconomicus » qui consiste à accorder à l’homme un comportement logique et rationnel, est contestée par des économistes comme Daniel Kahneman, Vernon Smith (tous deux prix Nobel 2002), Richard Thaler et bien d’autres.
Les équations de Walras constituent un des premiers modèles mathématiques en macroéconomie de la théorie de l’équilibre général. Elles relient l’offre et la demande, et les inconnues sont les quantités échangées et les prix. Il y a autant d’inconnues que d’équations, et Walras en déduit l’existence d’une solution de ce système qui définit l’équilibre des échanges. Les tableaux d’entrées-sorties et d’échanges de Leontief (prix Nobel 1973) modélisent des problèmes de même nature.
Le commentaire de Hayek sur ces modèles est le suivant : « Ces systèmes montrent simplement le principe de cohérence entre les prix de diverses marchandises qui entrent dans le système ; si on ne connaît cependant pas les valeurs numériques de toutes les constantes qui s’y trouvent – et nous ne les connaîtrons jamais – on ne peut pas prédire les résultats précis d’un changement. » . Pareto, cité par Hayek, ajoute à cette argumentation l’impossibilité matérielle d’effectuer les calculs même si toutes les valeurs numériques sont connues.
Le progrès scientifique a éliminé ces difficultés : ces valeurs figurent dans les banques de données sur ordinateur, et des logiciels extrêmement puissants résolvent toutes les difficultés de calcul. Il n’y a apparemment plus d’obstacle aux applications concrètes des modèles, et l’illusion que les solutions qu’ils donnent sont fiables enlève toute réticence à les appliquer. Mais comme on l’a vu précédemment, les valeurs ne sont pas toujours les bonnes, et comme je l’explique plus loin, les calculs, même justes, sont parfois dépourvus de sens.
La confiance dans les résultats est donc surprenante ; les estimations numériques sont toujours fausses, et tout le monde le sait. Ce qu’on ignore, c’est dans quelle mesure. L’application d’un modèle ne peut s’expliquer seulement par l’illusion de la fiabilité de ses résultats. Il y a aussi des causes politiques – le responsable peut se retrancher derrière le modèle pour justifier son choix si les objectifs ne sont pas atteints – et psychologiques – il faut bien prendre une décision, mais on ne sait pas laquelle, et on ne veut pas en être responsable en cas d’échec.
Il s’ensuit une dérive : les résultats peuvent être modifiés a posteriori pour que les objectifs fixés soient correctement atteints. C’était l’habitude dans l’ex URSS ; ne croyons pas que ce ne soit jamais le cas en France. L’indice des prix, le nombre de demandeurs d’emplois, les statistiques démographiques, le taux de croissance etc. sont sous la contrainte politique, en période d’élections en particulier.
Un exemple d’erreur mathématique est le suivant. On considère les salaires de mille personnes tirées au hasard dans les pays de l’OCDE, réparties par sexe. L’objectif de l’étude est de comparer le rapport des salaires homme/femme dans ces pays. Pour cela on calcule le rapport des moyennes des salaires des hommes et des femmes par pays que l’on compare au rapport moyen tous pays confondus. Mais le raisonnement est mathématiquement faux, parce que le rapport de deux lois normales indépendantes suit la loi de Cauchy qui n’a pas de moyenne théorique. Le calcul précédent consiste donc à évaluer la valeur d’un paramètre qui n’existe pas. Cela signifie qu’une autre enquête peut donner un résultat complètement différent et que l’information donnée par la valeur numérique obtenue n’a aucun sens. Pour effectuer la comparaison, il faut procéder d’une façon différente, en comparant les fonctions de répartition par exemple.
3.2 Calcul et hypothèses mathématiques
On peut penser que ce type d’erreur est rare lorsque le modèle est conçu par un économiste bien formé aux mathématiques. Mais c’est souvent la confiance accordée aux résultats qui est très exagérée.
Dans un article publié dans la revue La Recherche, Oskar Morgenstern, un des fondateurs de la théorie des jeux, regrette que l’imprécision des données économiques ne soit prise en compte ni dans les modèles économiques, ni dans les décisions qui sont prises à la suite de leurs résultats : « il serait certainement injustifié de prétendre atteindre un haut degré de précision dans les données économiques ; on rencontre cependant cette prétention un peu partout, et elle est en particulier souvent revendiquée par les gouvernements qui ont la responsabilité de décisions économiques cruciales. »
La précision d’une mesure et du résultat d’un calcul est évaluée dans les sciences exactes : c’est l’encadrement des résultats numériques en fonction de la marge d’erreur sur les données initiales, que l’on appelle en physique les incertitudes. Mais ce calcul n’existe pas actuellement dans les sciences économiques, alors que les marges d’erreur sont bien plus importantes que dans les sciences exactes .
Il existe aussi une limite au calcul scientifique, bien expliquée par Morgenstern qui donne l’exemple suivant :
« Prenons le système de deux équations :
x – y = 1
x – 1,000 01 y = 0
Elles ont pour solution : x = 100 001, y = 100 000.
Mais les deux équations suivantes presque identiques :
x – y = 1
x – 0,999 99 y = 0
ont pour solution : x= – 99 999, y= – 100 000. Les coefficients diffèrent tout au plus de deux unités à la cinquième décimale, mais les solutions diffèrent de 200000. Est-il nécessaire de ne rien ajouter ? »
Cette difficulté numérique s’applique, de façon bien plus compliquée et moins visible, aux équations de Walras dont la résolution passe par l’inversion d’une matrice de grande dimension (au lieu de deux équations à deux inconnues comme ci-dessus, il y a cent ou mille équations avec cent ou mille inconnues). Les résultats numériques sont alors souvent instables, et par suite peu fiables.
Ce n’est pas la seule source d’erreur des modèles. En effet, bien d’autres hypothèses sont supposées acceptables dans les modèles sans jamais être contrôlées, comme la nature aléatoire et l’indépendance des observations, la nature des liaisons entre les facteurs observés, la normalité des résidus … Et ces contrôles indiquent seulement si ces hypothèses sont compatibles ou non avec les données.
Les équations de Walras sont linéaires, de la forme y = a x + b. Le contrôle scientifique de la nature linéaire de la relation ne peut aboutir qu’à l’une des deux réponses possibles :
les observations ne sont pas incompatibles avec une relation linéaire : la relation linéaire est possible, donc on suppose qu’elle est vraie.
les observations contredisent la relation linéaire ; elle est peu vraisemblable, donc elle est considérée comme fausse. On modifie alors les variables, en passant au logarithme par exemple, pour pouvoir la considérer comme vraie.
En général, on la considère comme vraie dans un intervalle de variation ; mais on ne connaît pas ce dernier, et on n’en tient guère compte dans les applications.
On est loin de la certitude ! D’ailleurs, la relation mathématique étant toujours une approximation de la réalité, le contrôle d’une hypothèse théorique comme la linéarité d’une relation aboutit toujours à son rejet pour un nombre d’observations suffisamment grand. En physique par exemple, on considère que l’allongement d’une tige en métal est proportionnel à sa température : une augmentation d’un degré provoque un allongement indépendant de la température initiale, ce qui caractérise une relation linéaire. Une expérience plus précise, avec des températures d’une plus grande variation, montre que ce n’est pas le cas : on peut alors supposer une relation polynomiale de degré 2. Une expérience plus complète montrera que cette relation est inexacte et ainsi de suite : la réalité n’est pas mathématique.
Par suite, parmi les modèles pouvant représenter une même réalité économique, on privilégie en général le modèle le plus simple, suivant le principe appelé le « rasoir d’Occam ». Cela consiste à définir le « meilleur » modèle par celui qui est fondé sur le minimum d’hypothèses et de paramètres à estimer.
Étudions à titre d’exemple un facteur économique observé régulièrement, ici le taux d’inflation. Le graphique ci-dessous en donne la représentation graphique de 1991 à 2014.
Taux d’inflation en France de 1991 à 2014
La méthode classique consiste à déterminer la droite la plus proche des points, suivant le critère des « moindres carrés ». On peut ensuite effectuer des prévisions (souvent très mauvaises) en prolongeant la droite. C’est un modèle simple, du fait que la droite, définie par l’équation y = a x + b, comporte deux paramètres à calculer a et b. Un contrôle de cette hypothèse aboutit à la considérer comme possible, et donc à la supposer vraie comme je l’ai expliqué précédemment.
On peut calculer suivant le même critère les courbes de degré 2 (trois paramètres), 3, 4, … qui sont de plus en plus proches des points. On peut même calculer une courbe passant exactement par tous les points. Elle est définie par une équation de degré 23, et comporte donc 24 paramètres à calculer (ce qui ne pose aucune difficulté à un ordinateur). Mais cette courbe n’a de toute évidence aucun sens, ni aucun rapport avec la courbe que l’on ajusterait sur les vingt cinq points l’année suivante.
La droite est beaucoup plus réaliste pour représenter l’évolution des taux d’inflation, pour constater que l’inflation a beaucoup augmenté en 2008, s’est trouvé quasiment nulle en 2009 etc. On peut alors rechercher les causes de ces variations par rapport à l’évolution de référence donnée par la droite. L’économiste a pour rôle ici de choisir un compromis : le modèle le plus simple représentant au mieux l’évolution de référence à son avis.
Les modèles complexes occultent fréquemment des erreurs simples. La méthode des moments généralisés donne l’estimation d’un paramètre à partir de statistiques observées sur différents pays. L’outil mathématique est puissant, puisqu’il donne la valeur la plus proche possible du vrai paramètre en appliquant un critère des moindres carrés défini par une matrice symétrique définie positive. Le calcul consiste à inverser cette matrice (on retrouve donc le risque expliqué par Morgenstern). Mais surtout, l’économiste, concentré sur la méthode mathématique, en oublie l’hypothèse initiale : dans son calcul, il a supposé que le paramètre a la même valeur pour tous les pays. Il n’est donc pas étonnant qu’au bout du compte, l’économiste obtienne une valeur unique, mais quel en est le sens s’il ne vérifie pas l’hypothèse initiale ?
Un modèle, dans les sciences économiques et sociales, comme dans les sciences exactes et appliquées, n’est donc jamais une représentation exacte de la réalité, que nous ne pouvons concevoir dans son intégralité : « Notre intelligence tient dans l’ordre des choses intelligibles le même rang que notre corps dans l’étendue de la nature. » . Les erreurs de calcul, les approximations erronées, les interprétations abusives sont nombreuses. Soyons modestes dans notre rapport aux choses, et plus encore dans notre rapport aux hommes.
0 commentaire(s)