Au fil des temps, les banques centrales ont exercé des fonctions bien différentes. De façon conjointe ou successive, elles ont contribué au financement des États, assuré la stabilité des systèmes financiers, garanti la valeur interne et externe de leur monnaie, régulé les niveaux d'activité et d'emploi, etc. Au sortir de la Seconde Guerre mondiale, cette variété des fonctions s'est retrouvée dans la diversité des conceptions et des pratiques de politique monétaire dans les pays avancés. Certains d'entre eux ont choisi plutôt de les mettre au service des financements publics et privés de leur économie à reconstruire, tandis que d'autres ont privilégié la recherche du plein-emploi, de la stabilité des prix ou de la parité de leur devise. Ces choix relevaient naturellement de la souveraineté monétaire des États en question. Mais la coexistence de politiques dont les objectifs étaient hétérogènes, alors même qu'elles étaient en partie interdépendantes, comportait un risque d'instabilité. Et c'est l'un des facteurs qui ont contraint, à partir des années 1970, à réviser le rôle, le statut et les instruments d'action des banques centrales.
Car, à l'inverse de ce que l'on aurait pu croire, la libéralisation financière n'a pas accru les marges de manœuvre des politiques nationales ; elle a au contraire réduit leurs divergences. De fait, l'aspect le plus remarquable de la période, commençant vers le début des années 1980, tient à l'unification des conceptions dans ce domaine. On observe en effet qu'un modèle de politique monétaire (ou de central banking) s'est progressivement esquissé, puis imposé dans la quasi-totalité des pays avancés. De sorte qu'à la fin des années 1990 (la décennie qualifiée de « Grande Modération »), on a pu penser que l'on était parvenu à un consensus sur les principes définissant les institutions, les objectifs et les instruments de politique monétaire. Une sorte d'aboutissement clôturant les longs et vifs débats de la période précédente.
Pourtant, deux décennies et deux ou trois crises plus tard, il ne reste plus grand-chose de cette prétention. La négligence de la fonction de stabilisation financière ainsi que la sous-estimation des externalités entre les chocs nationaux de toute nature ont ruiné la crédibilité du modèle sur lequel on s'était accordé. Au-delà, c'est aussi la libéralisation qui a été mise en question, parce qu'elle semblait avoir affaibli l'efficacité et l'autonomie des politiques monétaires nationales.
Cet article se propose de retracer brièvement l'histoire de ces politiques de l'après-guerre à aujourd'hui, dans les pays avancés. Parce que cette longue période illustre la grande diversité des formes de régulation monétaire en fonction des circonstances, des structures institutionnelles, ainsi que des théories et des idéologies dominantes. Mais surtout cela permet de mettre en perspective l'origine et les conséquences, en ce domaine, de l'épisode de libéralisation financière qui n'aura peut-être été qu'une parenthèse.
Dans l'après-guerre, la fragile juxtaposition
de politiques monétaires hétérogènes
En dépit de problématiques semblables (le financement de la reconstruction) d'un cadre d'analyse assez partagé (le keynésianisme) et du lien que constituaient les Accords de Bretton Woods, les pays belligérants ont donc mené des politiques monétaires bien différenciées entre la fin de la guerre et la fin des années 1970. Du fait de leur diversité, ces politiques monétaires étaient difficilement compatibles, ce qui hypothéquait leur pérennité, mais leur fragilité provenait aussi des circonstances très particulières dans lesquelles elles avaient été conçues (Monnet, 2016). Ce qui laissait présager leur future déconstruction.
Un aperçu de la diversité des politiques monétaires
Les différences en question concernaient aussi bien leurs objectifs (ou leur hiérarchisation) que leurs instruments d'action, ou encore leur relation aux autres volets des politiques économiques. Nous allons en donner quelques exemples en décrivant les grandes lignes des politiques monétaires de quatre pays jugés représentatifs.
En France, une politique de contrôle du volume
et de l'allocation du crédit
Durant cette crise, c'est en France que l'interventionnisme dans le fonctionnement de la sphère monétaire et financière fut le plus développé. Il est d'ailleurs difficile de parler, dans ce cas, de politique monétaire au sens que l'on donne aujourd'hui à ce terme. Car il existait de fortes connexions entre la banque centrale et d'autres administrations, notamment la Direction du Trésor ou le Commissariat au plan et de grandes institutions financières. La frontière entre la compétence de l'une et des autres était en partie floue, d'autant que leurs responsables appartenaient à une même technocratie d'État. Ce vaste ensemble dont la Banque de France était l'une des parties prenantes concourait à la mise en œuvre d'une politique du crédit qui avait sans doute pour objectif de contribuer à la régulation des équilibres macroéconomiques et d'assurer la couverture des besoins de financement de l'État. Mais au-delà, elle s'était donnée pour mission de favoriser aussi le financement des investissements définis comme prioritaires dans le cadre de la « planification indicative » pratiquée à l'époque.
Cette politique du crédit était donc sélective, ce qui se traduisait d'abord par la prédominance de circuits de financements privilégiés qui orientaient l'épargne collectée sur certains produits (le livret A, par exemple) vers certains secteurs ou types d'investissements : les Caisses d'épargne (via la Caisse des Dépôts) pour les collectivités locales et le logement social, le Crédit national pour les ETI, le Crédit d'équipement pour les PME. Ce sont ces institutions qui finançaient la plus grande part de l'investissement à long terme, les banques commerciales accordant principalement des crédits à court terme jusqu'aux réformes de 1966-1967. D'autre part, la politique de refinancement de la banque centrale était elle-même sélective au double niveau des crédits qu'elle acceptait au réescompte et des banques qui disposaient de plafonds de réescompte différenciés.
Dans les années de l'immédiat après-guerre, la reconstruction des infrastructures et des industries de base pouvait aisément justifier cette stratégie. Par la suite, la sélectivité a été mise au service d'une politique industrielle volontariste visant à orienter le développement du système productif et elle s'est poursuivie longtemps : au début des années 1980, près de la moitié des crédits distribués l'étaient encore à des conditions privilégiées. Et en 1983, le rapport d'un groupe de travail sur la politique monétaire, réalisé dans le cadre du 9e Plan, s'interrogeait sur les axes d'une sélectivité du crédit rénovée (Commissariat général du plan, 1983, pp. 76-84).
Par ailleurs, la volonté de soutenir l'investissement public et privé s'est également traduite par le maintien d'un coût nominal du crédit peu élevé, au regard des taux d'inflation observés sur la période. Les bonifications d'intérêt et le traitement fiscal avantageux de certains produits d'épargne y ont contribué. Mais surtout la banque centrale a maintenu jusqu'à la fin des années 1960 les taux monétaires à des niveaux faibles et peu variables : entre 1948 et 1968, le taux d'escompte a évolué entre 2,5 % et 5 % (pour une inflation moyenne d'environ 4 %), et il n'a été modifié qu'une quinzaine de fois. Plus globalement, c'est toute la gamme des taux d'intérêt (débiteurs et créditeurs) qui était administrée dans le souci d'assurer la stabilité de l'intermédiation financière, mais sans véritable référence à l'équilibre potentiel entre l'offre et la demande de fonds prêtables.
On a parlé de financements administrés pour qualifier ce système dans lequel les marchés monétaires et financiers étaient peu développés et les taux d'intérêt largement inertes (Commissariat général du plan, 1987)1. Son bouclage, c'est-à-dire l'équilibre ex post entre l'offre et la demande de financement s'effectuait par le biais de la création monétaire. La fonction d'offre de crédit étant très élastique, l'évolution de la masse monétaire était en fonction de la demande de crédit, selon la logique du « diviseur de crédit ». Le contrôle de la monnaie ne pouvait donc se faire qu'en contraignant en amont l'offre de crédit, et c'est bien ainsi que s'est opérée pour l'essentiel la régulation monétaire sur la période : l'encadrement du crédit a été utilisé (selon les modalités un peu différentes, il est vrai) à quatre reprises (1958, 1963-1965, 1969-1970, 1972-1987) durant une vingtaine d'années. Sans qu'il ait fait la preuve d'une grande efficacité2. Car finalement, il semble que ce soit la politique budgétaire et celle des revenus qui ont apporté la principale contribution à la maîtrise des équilibres macroéconomiques et en particulier de l'inflation. Mais elles ont été incapables d'éviter les cinq dévaluations du franc intervenues avant l'abandon des Accords de Bretton Woods.
En Allemagne, la difficile conciliation entre la stabilité interne et externe
de la monnaie
Les principes constitutifs de la politique monétaire en Allemagne se situaient largement à l'opposé de ceux de la France. D'abord parce qu'ils écartaient l'idée d'une intervention directe dans l'allocation du crédit et dans la fixation de ses conditions. Sa régulation quantitative s'opérait en encadrant les taux sur le marché monétaire par le taux de réescompte et le taux Lombard (qui s'appliquait à des crédits de court terme accordés aux banques). Mais ce marché, à la différence de celui de la France, était réellement actif et les taux qui s'y formaient présentaient une assez forte volatilité qui témoignait d'un ajustement par les prix de l'offre et de la demande de liquidité centrale.
D'autre part, si l'on excepte les financements de long terme par la banque centrale au Fonds (public) pour la reconstruction, à partir de la fin des années 1940, la politique monétaire ne paraît pas avoir été soumise à une « dominance budgétaire », c'est-à-dire qu'elle ait eu à financer des déficits publics au mépris de sa mission. Au demeurant, jusqu'au début des années 1970, les évolutions de la dette publique et des soldes budgétaires ne rendaient pas nécessaire un financement monétaire. De même qu'en dépit de conflits ponctuels sur le réglage cyclique de l'activité économique, il semble que la coordination entre politiques budgétaire et monétaire (le « policy mix ») ait été globalement satisfaisante (Holtfrerich, 1999 ; Neumann, 1999).
Cela s'explique par différents facteurs (l'ordolibéralisme, une « culture de la stabilité » partagée), mais avant tout par le fait que la banque centrale a obtenu très tôt son indépendance envers le pouvoir politique. La loi instituant (en 1948) la Bank Deutscher Länder, qui a précédé la Bundesbank, spécifiait qu'elle « n'était soumise à aucune instruction d'une instance politique ou d'une administration publique, à l'exception des tribunaux ». Cette disposition a été reprise dans l'Acte instaurant la Bundesbank en 1957, qui détaille les différentes actions qu'elle pouvait engager en toute indépendance. L'Acte stipulait, par ailleurs, que l'unique objectif de la Banque était de « sauvegarder la monnaie ». Or cela pouvait s'entendre comme l'obligation de stabiliser soit la valeur interne de la monnaie (donc l'inflation), soit sa valeur externe (la parité vis-à-vis des autres devises, et tout spécialement le dollar). Les deux notions étaient naturellement liées, mais comme c'est généralement le cas, c'est le gouvernement qui avait la responsabilité du régime de change et en conséquence des modifications de parité dans le système de changes fixes mais ajustables de Bretton Woods.
C'est sur ce point que se sont concentrées les oppositions entre la Bundesbank et le pouvoir politique. Car, lorsqu'à partir du début des années 1950, la balance commerciale puis celle des capitaux sont devenues excédentaires, la Bundesbank s'est trouvée contrainte d'accumuler des avoirs étrangers pour maintenir la parité par rapport au dollar. Elle ne pouvait s'opposer à la création monétaire qui s'ensuivait en maniant ses taux, c'est-à-dire en les montant, puisque cela aurait aggravé les entrées de capitaux. Les autorités monétaires avaient donc à choisir entre le respect de la parité (donc éviter la réévaluation du mark) qui servait d'ancrage nominal, et la stabilité interne. À partir du début des années 1960, les frictions avec le gouvernement (qui imposa la réévaluation en 1961) se sont aggravées jusqu'à ce que la fin de Bretton Woods et le flottement du mark en 1973 conduisent la Bundesbank à abandonner l'objectif de change pour retrouver une autre forme d'ancrage dans le ciblage monétaire. Tout en s'engageant dans la construction de nouveaux systèmes de change (« serpent », puis SME) dont le mark deviendra l'ancrage.
Dans les pays anglo-saxons, les nuances du « keynésianisme
de première génération »
L'influence du keynésianisme a été significativement plus forte au Royaume-Uni et aux États-Unis, pour des raisons aisément compréhensibles. On retrouve donc, dans la conception des politiques macroéconomiques de ces deux pays, la thèse selon laquelle l'intervention publique est nécessaire pour réaliser le plein-emploi des ressources que le libre jeu des marchés est incapable d'assurer. Aux États-Unis, l'idée a été explicitée dans l'Employment Act de 1946 et transposée en 1978 dans le Full Employment and Growth Act qui est à l'origine du double mandat (plein-emploi et stabilité des prix) assigné à la banque centrale (la Federal Reserve – Fed – par la suite)3. Dans le cadre analytique de la période, les deux termes de ce mandat étaient liés par la relation de Phillips qui impliquait l'existence d'un chômage d'équilibre conciliant les deux objectifs. Mais la difficulté qu'il y avait à l'estimer (d'autant qu'il n'était sans doute pas stable) condamnait les politiques macroéconomiques à osciller entre rigueur et relance (stop and go) dans le court-moyen terme.
On retrouvait aussi dans les deux pays le scepticisme présent dans la théorie générale, à propos de l'efficacité de la politique monétaire. Pour le keynésianisme de l'époque, la formation du niveau d'équilibre de court terme était en fonction de la demande globale et celle-ci était plus sensible à la dépense publique qu'aux taux d'intérêt et à la création monétaire. Au Royaume-Uni, le Rapport Radcliffe (1959) eut une influence importante et durable, en expliquant que la monnaie n'est qu'un actif parmi d'autres, participant à la liquidité de l'économie, mais sans propriété spécifique (Committee on the Working of the Monetary System, 1959)4. En conséquence, c'est à la structure des actifs et des taux ainsi qu'à l'évolution du crédit qu'il convenait de s'intéresser plutôt qu'à l'offre de monnaie et au niveau des taux d'intérêt.
D'ailleurs, lorsqu'au début des années 1970, on observa une dérive préoccupante de l'inflation, les dirigeants des banques centrales (Arthur Burns le président de la Fed lui-même) dans les deux pays ignorèrent l'argument monétaire pour invoquer une spirale inflationniste alimentée par les pouvoirs de monopole des entreprises et des syndicats de salariés. La solution du problème relevant, de leur point de vue, d'une politique des revenus (Hetzel, 2018).
Ces conceptions communes se sont toutefois accompagnées de différences notables dans le statut, les instruments d'action et les pratiques des banques centrales des deux pays. Au Royaume-Uni, la Banque d'Angleterre, à la différence de la Fed, est restée longtemps soumise au pouvoir politique et elle n'obtint son indépendance que bien plus tard. Dans l'immédiat après-guerre, elle a dû se comporter comme le banquier de l'État (Goodhart, 2010). Ainsi elle n'a pas eu à pratiquer directement, comme en France, une politique sélective du crédit, mais elle a financé la politique industrielle de reconstruction et de développement des secteurs jugés prioritaires. Qui plus est, elle a dû, sur instruction du gouvernement, maintenir les taux d'intérêt à des niveaux assez bas pour soutenir l'investissement et rendre supportable le coût de la dette publique. Pour réguler le crédit, la Banque d'Angleterre a donc été amenée, comme en France, mais de façon moins fréquente, à utiliser un dispositif d'encadrement (le « corset »), mais aussi des ratios de réserves obligatoires, des contraintes sur les conditions de leasing, des contrôles des mouvements de capitaux, etc.
Aux États-Unis, au contraire, la banque centrale a obtenu très vite son indépendance au terme de l'Accord avec le Trésor intervenu en 1951. Elle se libéra ainsi de la contrainte l'obligeant à stabiliser les taux sur les obligations publiques de long terme. Elle put alors développer un marché national pour les réserves bancaires (les Fed funds) dont le taux d'intérêt devint l'instrument principal de la politique monétaire. La structure des taux est ainsi devenue libre de se fixer en fonction des anticipations des agents. Ce qui permit à la Fed d'obtenir des informations sur ces anticipations et l'amena à rechercher la bonne manière de procéder pour les infléchir. Le principe n'étant plus alors de se substituer aux mécanismes de marchés, mais d'en corriger les évolutions.
Des incohérences ouvrant la voie à la libéralisation
Dans la mesure où des politiques monétaires étaient sensiblement différentes d'un pays à l'autre, le redressement des économies et les prémisses de la libéralisation financière les ont diversement remises en cause : certaines (la France, par exemple) ont été affectées plus que d'autres (l'Allemagne en particulier) par ces évolutions. Cependant, les raisons et la substance de ces transformations les ont concernées pratiquement toutes. Il s'est agi, d'une part, de la remise en cause de la place de l'intervention publique dans le fonctionnement du secteur financier et, d'autre part, des modalités (plus profondément des conceptions) du contrôle de l'inflation.
Une administration du crédit devenue ingérable et inefficiente
Avec le rétablissement puis le développement des économies, l'administration de la sélectivité du crédit est devenue un exercice compliqué, car l'actualisation des priorités s'avérait progressivement plus délicate. Dans la pratique, la viscosité des procédures et la résistance des réseaux distributeurs des crédits privilégiés aboutissaient à pérenniser les choix du passé sans rendre possible l'émergence de priorités nouvelles. En France, la volonté affichée de favoriser l'investissement productif ne s'est guère concrétisée, parce que l'absence de remise en cause des avantages consentis au fil du temps n'a pas permis de réorienter la sélectivité. Du reste, dès lors que la moitié des crédits bénéficiait de conditions hors marchés, il était difficile de cibler des priorités. De surcroît, le dispositif désincitait les banques à évaluer rigoureusement la qualité des firmes et des projets susceptibles de bénéficier de crédits à taux préférentiels ; ce qui en réduisait l'efficacité. Enfin, toujours en France, la charge budgétaire des avantages consentis représentait, au début des années 1980, quelques 5 % des dépenses publiques (Commissariat général du plan, 1983, p. 71).
L'administration des taux d'intérêt a, quant à elle, contribué à limiter la concurrence entre les institutions financières. La volonté de protéger les marges d'intérêt pour garantir la stabilité des systèmes bancaires a conforté les rentes de situation des systèmes bancaires et maintenu les coûts de l'intermédiation à des niveaux élevés5. La ponction qui en résultait sur les autres secteurs de l'économie était naturellement dommageable et ce fut là l'une des justifications majeures de la libéralisation financière.
La nécessité d'en finir avec l'encadrement du crédit relevait du même type d'argument. Le fait d'imposer un plafond uniforme de progression du crédit à tous les établissements gelait les parts de marché et décourageait la concurrence. Différencier les plafonds, comme l'a fait le Royaume-Uni, comportait une bonne dose d'arbitraire ; instaurer un marché du désencadrement, comme l'a fait la France, revenait à offrir une sorte d'aubaine aux établissements les moins dynamiques qui pouvaient vendre leur capacité de crédit inemployée. De plus, à partir des années 1970, on observait un peu partout un développement des marchés financiers qui permettait aux entreprises qui y avaient accès de contourner l'encadrement du crédit intermédié ainsi que la réglementation des taux.
Ce contournement ne s'est du reste pas opéré qu'au plan national. Il a également profité au développement des marchés internationaux de capitaux et tout particulièrement au marché de l'eurodollar. Celui-ci échappait très largement à toute régulation, de sorte que les taux qui s'y fixaient pouvaient être attrayants pour des investisseurs de toute nature (les détenteurs de pétrodollars, des entreprises souhaitant placer leurs liquidités, des fonds de placement, etc.), ainsi que pour des emprunteurs contraints sur leur marché domestique6. Ce marché a donc fragilisé et accru l'interdépendance des politiques monétaires, puisqu'il offrait l'opportunité d'arbitrer les placements et les financements entre les places. Il a aussi été un instrument de spéculation sur les monnaies et joué à ce titre un rôle significatif dans l'effondrement du système de Bretton Woods.
Au total, l'intervention de l'État dans l'allocation du crédit, la maîtrise de son évolution et de son coût, qui pouvaient se comprendre et se justifier à la sortie de la guerre, a progressivement généré des inefficiences qui ne pouvaient se résoudre qu'en s'en remettant à une régulation plus décentralisée, c'est-à-dire en laissant une place plus grande aux mécanismes de marchés.
Un manque d'ancrage des anticipations d'inflation
À partir du début des années 1970 et pendant presque une décennie, les pays avancés (à l'exception de l'Allemagne et de quelques autres) enregistrèrent une forte poussée inflationniste : 8 % en moyenne aux États-Unis, 10 % en France et au Japon, environ 15 % au Royaume-Uni et en Italie, mais un peu moins de 5 % en Allemagne. Les tentatives d'explication du phénomène donnèrent lieu à de nombreux débats. On invoqua, en particulier, un phénomène d'inflation par les coûts générant une spirale prix-salaires rendue très plausible par les deux chocs pétroliers qui ont marqué la période. Mais les politiques de revenus censées y répondre ont plutôt été des échecs. Quant aux politiques budgétaires ou monétaires, elles ne se sont pas montrées plus efficaces, peut-être parce qu'elles ont été menées de façon trop modérée. On considérait, en effet, que le coût en termes d'emploi de la réduction de l'inflation était trop élevé, rendant l'arbitrage entre les deux variables plus problématique.
Or les monétaristes, et tout particulièrement Friedman, avaient déjà, comme on le sait, une explication convaincante de ce déplacement de la relation inflation-chômage (Friedman, 1968). Elle consistait à dire que c'était l'instabilité des anticipations, provoquée par des politiques activistes, qui en était la cause. En cherchant à réduire le taux de chômage en dessous de son niveau d'équilibre (ou « naturel »), ces politiques provoquaient une inflation qui induisait un relèvement des anticipations de son niveau à venir. En persistant dans l'erreur, on générait une augmentation sans cesse croissante du niveau des prix. De sorte qu'à long terme, la courbe de Phillips devenait verticale, éliminant tout arbitrage possible entre ses deux termes. En poussant le raisonnement un peu plus loin, le courant des anticipations rationnelles s'est même attaché à montrer que la disparition de l'arbitrage était aussi vraie à court terme. Dans un monde où les agents étaient capables d'anticiper sans délai les conséquences de la politique monétaire (et dans lequel les prix, les salaires et les taux étaient parfaitement flexibles : précision importante), toute velléité de la banque centrale de s'écarter du niveau d'activité ou d'emploi d'équilibre serait neutralisée.
Cela dit, l'opposition entre ces deux conceptions (disons pour simplifier, entre les keynésiens et les monétaristes) ne portait pas vraiment sur la question de savoir si l'inflation était due à l'évolution des coûts ou à celle de la demande. De même que le mécanisme de la spirale prix-salaires comme celui du jeu des anticipations pouvaient être considérés comme deux explications possibles du déplacement de l'arbitrage entre inflation et chômage observé à partir de la fin des années 1960. En réalité, la distinction de fond entre keynésiens et monétaristes tenait à leur vision du temps, ou encore à l'horizon de leurs politiques. Les premiers considéraient que l'équilibre de long terme était le résultat de la succession des situations de court terme : il fallait donc se préoccuper « activement » de celles-ci pour obtenir un équilibre satisfaisant dans le temps. Tandis que les monétaristes pensaient que les politiques économiques devaient se concentrer sur le long terme en laissant aux mécanismes de marchés le soin de traiter les aléas conjoncturels, le rôle de la politique monétaire était de fixer un cadre au déroulement de ces mécanismes en évitant un activisme de court terme qui ne pouvait être que déstabilisant.
Au bout du compte, on peut dire que les positions keynésiennes ont ignoré la nécessité de l'ancrage nominal garant de la valeur à long terme de la monnaie, en remplacement des défunts systèmes d'étalon or ou de changes fixes. Or, dans les pays avancés, cet ancrage se situe désormais dans la définition d'une règle de conduite de la banque centrale, fondant son engagement à poursuivre dans le temps un objectif de stabilité des prix (Issing, 2010)7. C'est précisément ce que proposaient les monétaristes en suggérant que la politique monétaire se limite à assurer une croissance régulière de la masse monétaire permettant l'obtention d'un taux optimal d'inflation. Ce faisant, ils recommandaient de renoncer aux politiques activistes et discrétionnaires de réglage conjoncturel. Mais l'idée selon laquelle les marchés seraient capables, à moindre coût, de résorber les chocs de court terme relevait d'un pur acte de foi. Ni la théorie, ni l'expérience ne confirmaient une telle proposition.
En conséquence, la question restait alors posée de savoir s'il était possible de concilier ces deux points de vue, c'est-à-dire l'existence d'une règle monétaire assurant l'ancrage nominal tout en cherchant à répondre aux déséquilibres de court terme. C'est selon cette problématique que s'est engagée la redéfinition des politiques monétaires dans le contexte de la libéralisation financière.
Après la libéralisation financière,
construction et délitement d'un consensus
de politique monétaire
Le retour du néolibéralisme vers le milieu des années 1970 trouva naturellement un terrain d'application privilégié dans le domaine financier. Notamment parce que l'apparence des jeux de marchés dans ce secteur rejoint assez bien le schéma théorique de coordination des décisions individuelles par les mécanismes de prix. D'autant que, dans la période en question, les innovations financières se développèrent, portées par les progrès dans les technologies de diffusion et de traitement des informations. Elles étaient censées accroître l'efficience des marchés et à tout le moins élargir les possibilités d'arbitrages, rendant inopérantes les interventions visant à contraindre les équilibres de marchés.
Dans ces conditions, le rôle des politiques monétaires devait être avant tout de fixer des règles encadrant le comportement des agents économiques et le fonctionnement du système financier. Ce qui n'excluait pas (comme l'ont montré la théorie et la pratique) qu'elles s'impliquent dans la régulation des déséquilibres de court terme de l'emploi et de l'activité.
Sur ces bases s'est construit un consensus de politique monétaire qui semblait pouvoir rassembler des courants de pensée assez divers, et obtenir des résultats probants. À ceci près qu'il aurait fallu ne pas oublier qu'il existe aussi dans le système financier des phénomènes d'« échecs de marché » (dus à des asymétries d'information, des externalités, etc.) capables de dégénérer en crises systémiques. Ces crises ont une longue histoire, mais elles se renouvellent dans des circonstances et selon des modalités qui laissent penser que les temps ayant changé, elles ne pourront plus se reproduire (Reinhart et Rogoff, 2009). Au début des années 2000, les temps n'étaient finalement pas différents et la « Grande Récession » qui a suivi la crise des subprimes a obligé les banques centrales à reprendre la main, à renforcer les régulations et finalement à remettre en cause les termes du consensus qui s'était formé.
Les composantes d'une nouvelle stratégie de politique monétaire
Les politiques mises en place à partir du début des années 1980 avaient donc toutes pour volonté de réduire leur emprise sur le système financier. Globalement elles entendaient ancrer les anticipations inflationnistes et la régulation conjoncturelle en fixant le niveau de leurs taux directeurs et en laissant les marchés déterminer les structures des prix d'actifs (donc les primes de terme, de crédit, de liquidité). Partant, comme on l'a vu, de situations et de pratiques bien différentes, elles ont convergé vers des solutions communes sur la plupart des questions : c'est-à-dire sur la définition des objectifs, des instruments, du statut des banques centrales, des régimes de change, etc.
La laborieuse définition d'une règle monétaire
Dès le début des années 1970, les banques centrales, à la recherche de solutions face à l'envolée de l'inflation, ont commencé à observer plus attentivement l'évolution des agrégats monétaires. Mais ce n'est que quelques années plus tard qu'un bon nombre d'entre elles décidèrent de publier des objectifs de croissance de masse monétaire. La Bundesbank fut la première à le faire à la fin de 1974 ; elle fut suivie l'année suivante par le Canada, puis par le Royaume-Uni, et enfin par les États-Unis et la France en 19778.
Dans la plupart des cas, l'idée n'était pas de piloter la politique monétaire dans le strict respect de la cible. Il n'était pas question de refuser la régulation des déséquilibres conjoncturels pour adopter une règle passive « à la Friedman ». D'ailleurs la Bundesbank elle-même, durant les vingt-cinq années suivantes, a manqué son objectif une fois sur deux. Ce qui lui donnait l'occasion de s'expliquer sur les raisons de l'écart observé et ainsi de réaffirmer sa volonté de maintenir l'évolution souhaitée de la masse monétaire et de l'inflation : une façon peut être paradoxale mais efficace de montrer sa détermination. Au demeurant, la référence aux agrégats monétaires ne reflétait pas une réelle adhésion aux thèses monétaristes, c'est-à-dire à la croyance au caractère monétaire de l'inflation. Dans les pays concernés, les autorités monétaires continuaient à s'inspirer de théories éclectiques en ce domaine. En fait les agrégats étaient plutôt conçus comme des objectifs intermédiaires, c'est-à-dire des indicateurs avancés de l'inflation et/ou du PIB nominal, jouant le rôle d'aides à la décision.
Encore fallait-il, pour que ce soit possible, que l'évolution des agrégats entretienne une relation fiable avec celle des objectifs finals de la politique monétaire. Or il est assez vite apparu que c'était loin d'être le cas. Les nombreux travaux engagés pour trouver le bon agrégat (du plus étroit au plus large) et la forme la plus robuste de la fonction liant la monnaie au PIB nominal n'ont abouti qu'à convaincre de l'instabilité d'une telle fonction. D'autant que la libéralisation et les innovations financières ont favorisé l'émergence d'actifs substituables à la monnaie (les fonds monétaires notamment), ce qui a aggravé cette instabilité. En conséquence plusieurs banques centrales, à commencer par celle du Canada, ont abandonné de façon plus ou moins explicite, le ciblage monétaire après quelques années. Seule la Bundesbank a continué à le pratiquer jusqu'à la création de l'euro9. La Banque centrale européenne (BCE) a alors mis en place une série d'indicateurs servant d'objectifs intermédiaires, au sein duquel le « pilier monétaire » fut un temps privilégié. Elle en vint ensuite à une position plus raisonnable en renonçant à les hiérarchiser.
Les autorités monétaires ayant abandonné le ciblage des agrégats se sont alors tournées, dès le début des années 1990, vers le ciblage de l'inflation10. Ce qui revenait à remplacer l'objectif intermédiaire de masse monétaire par un indicateur d'inflation anticipée intégrant l'ensemble des informations qui s'avéraient pertinentes11. Mais une stratégie de ciblage d'inflation ne se résumait évidemment pas à un changement d'indicateurs. Elle consistait en fait en un engagement de la banque centrale, à faire en sorte que le taux d'inflation à un horizon donné (dans deux ans, par exemple) soit égal à l'objectif qu'elle s'était donné ou qu'on lui avait donné. Partant d'une anticipation de l'inflation pour l'horizon en question, elle devait donc prendre les mesures (essentiellement fixer ses taux directeurs) de façon à ce que l'inflation effective rejoigne l'objectif à l'échéance donnée. Ainsi l'engagement sur l'objectif était censé permettre l'ancrage des anticipations, tandis que le délai consenti pour sa réalisation offrait la possibilité de prendre en compte les aléas de conjoncture12. De sorte que pouvaient être conciliés l'ancrage de long terme et la régulation conjoncturelle. C'est pourquoi on a parlé à ce propos de « ciblage d'inflation flexible ».
Cette règle, ou du moins cette stratégie de « discrétion contrainte » pour reprendre l'expression de Bernanke et Mishkin (1997), ignorait cependant les déséquilibres financiers13. Ce n'est pas que les banques centrales aient oublié l'existence de crises récurrentes que ces déséquilibres engendraient, ni le rôle qu'elles seraient encore amenées à jouer pour les résorber. C'est plutôt que deux arguments s'étaient imposés pour donner naissance au « consensus de Jackson Hole ». D'une part, on a fait valoir que la stabilité des prix pouvait garantir la stabilité financière. D'autre part, on considérait qu'il était moins coûteux d'éponger les dégâts provoqués par une crise financière (clean up afterwards) que de chercher à la combattre, au risque d'un conflit avec le ciblage de l'inflation. Vers la fin des années 1990, des travaux s'étaient interrogés sur la pertinence d'une prise en compte des bulles de crédit ou de prix d'actifs par la politique monétaire ; ils avaient en général conclu de façon négative (Levieuge, 2019).
En définitive, Greenspan, observant le développement de la bulle internet vers la fin des années 1990, le qualifiera d'exubérance irrationnelle, mais il ne cherchera pas à l'entraver, car l'inflation était alors à un niveau très convenable. En revanche, il baissera fortement les taux pour « éponger » les dommages de l'éclatement de la bulle. Et quand il les remontera trois ans après, il était trop tard pour freiner la bulle de crédit qui s'était formée entre-temps.
Indépendance et transparence des banques centrales
On comprend bien que les banques centrales n'aient pas souhaité se laisser enfermer dans l'application de règles rigides, fussent-elles contingentes. C'est la raison pour laquelle elles ont toujours refusé de se soumettre à des règles dites « d'instrument » à la Taylor, même si elles y ont souvent fait référence. Mais il n'empêche que l'ancrage des anticipations dépendait de la crédibilité de leurs engagements, c'est-à-dire de leur capacité à respecter leur objectif de stabilité des prix dans le temps. Et pour cela, il fallait qu'elles y soient incitées et surtout qu'elles puissent le faire en toute indépendance14.
Cette proposition a trouvé une justification théorique dans la littérature relative au risque d'« incohérence temporelle » de décisions de politique économique (Kydland et Prescott, 1977 ; Barro et Gordon, 1983). En l'occurrence, l'argument consiste à expliquer qu'une banque centrale pourrait trouver intérêt à fixer les anticipations en affichant un objectif de stabilité des prix, puis à s'en affranchir en menant une politique expansionniste afin d'obtenir une croissance supérieure à son niveau potentiel. Mais ce stratagème consistant à poursuivre des objectifs contradictoires ne peut résister à la réaction d'agents rationnels : ceux-ci doivent logiquement répliquer en imposant un taux d'inflation plus élevé, pour un taux de croissance (ou de chômage) égal à son niveau d'équilibre. La manœuvre de la banque centrale est donc clairement sous-optimale. Or on considère qu'un tel biais de comportement (obtenir à court terme un niveau de croissance plus élevé au mépris des contreparties à venir) est souvent le fait du politique. Ce qui implique de soustraire les autorités monétaires à son influence, comme à toute autre interférence qui les écarteraient de leur objectif d'ancrage nominal.
Au terme de ce raisonnement, mais aussi d'expériences passées, il est apparu que l'indépendance des banques centrales était une condition essentielle de leur crédibilité et donc de la mise en place d'un ciblage de l'inflation. Celles dans les pays avancés, qui n'en disposaient pas l'obtinrent dans les années 1990, et la garantie de cette indépendance a même été posée comme nécessaire à l'entrée dans la zone euro. Dans le même esprit, dans certains pays, les instances de supervision ont été mises à distance des banques centrales pour que la politique monétaire soit isolée autant que possible de considérations liées aux éventuelles difficultés d'institutions financières. Le Royaume-Uni a même été jusqu'à instaurer une autorité de supervision (la FSA, Financial Services Authority) indépendante de la Banque d'Angleterre.
En contrepartie, les banques centrales ont été amenées à rendre compte de la façon dont elles exerçaient leur mandat, c'est-à-dire des résultats obtenus, mais aussi de ce qui fondait leurs décisions et de la façon dont elles étaient prises. Mais progressivement les autorités monétaires ont poussé la transparence au-delà du simple respect d'une exigence démocratique. Elles en sont venues à communiquer sur leurs appréciations et anticipations de conjoncture, sur leur perception des risques. Dans certains cas, elles ont été jusqu'à donner des indications sur les évolutions possibles ou probables des taux d'intérêt dans le futur proche. Or c'était là un changement très net de comportement. Car jusque-là les banques centrales pratiquaient le culte du secret (ce que l'on a appelé une « ambiguïté constructive »), en considérant que la politique monétaire avait une incidence d'autant plus forte qu'elle parvenait à surprendre les agents économiques. En considérant aussi que la diffusion d'informations incertaines ou mal interprétées pouvait augmenter la volatilité des marchés.
Ces arguments, mal fondés, ont désormais été abandonnés. On s'est, au contraire, convaincu que lorsque les agents sont en mesure de comprendre et d'anticiper les décisions monétaires, celles-ci vont se transmettre plus vite et plus précisément sur la structure des taux et des prix d'actifs, donc sur les équilibres économiques. Surtout lorsqu'on se situe à des niveaux de taux d'intérêt proches de leur « limite à zéro », comme cela a été bien démontré dans le passé récent. En définitive, la communication de banques centrales est pratiquement devenue l'un de leurs instruments d'action.
Une volonté de réduire la gamme des instruments
Dans le même temps, la gamme des instruments utilisés jusque-là a été nettement réduite. Ce qui était logique puisque la volonté de libéralisation supposait que l'on allège l'emprise des autorités monétaires sur le fonctionnement du système financier. Pour l'essentiel celles-ci en sont donc venues à circonscrire leur intervention à la seule maîtrise des taux sur le marché monétaire. Aux États-Unis, l'« épisode Volker » de 1979-1982, durant lequel la Fed choisit de fixer le niveau des réserves empruntées, donc la quantité de liquidité centrale plutôt que son taux d'emprunt, n'a été qu'une parenthèse. Elle s'est traduite par une forte hausse, mais surtout par une volatilité extrême des taux. De sorte qu'elle n'a pas eu de suite15.
En se bornant à fixer les taux à très court terme et sans risque, la politique monétaire laissait donc aux intermédiaires et aux marchés financiers toute liberté pour déterminer la structure des taux, c'est-à-dire les diverses primes de risque (de crédit, de volatilité, de terme, de liquidité) et les prix des actifs qui en résultent. Cela afin de préserver ce que l'on appelait la « neutralité de marché ». Dans le même esprit, les réserves obligatoires, qui servaient aussi à moduler le coût du crédit bancaire, ont aussi pratiquement perdu leur statut d'instrument de politique monétaire. Leurs taux sont devenus très faibles et elles ne servent plus guère qu'à amortir les fluctuations au jour le jour de la liquidité bancaire.
Dans ces conditions, les divergences entre pays n'ont plus concerné que les cadres opérationnels de politique monétaire, c'est-à-dire la forme des opérations de refinancement, leurs conditions d'accès notamment à l'escompte, (les actifs éligibles, la rémunération des réserves, etc.). Ce sont là des points importants en ce qui concerne le fonctionnement du marché monétaire, mais qui ne participent qu'à la marge à la définition de la stratégie.
On peut ajouter ici, même s'il ne s'agit pas à proprement parler d'une affaire d'instruments, que les banques centrales se sont en principe résolues à ne plus intervenir sur les changes. La libéralisation financière rendait en effet incompatible l'indépendance des politiques monétaires et la fixité des parités, selon l'argumentation de Mundell ; de plus, elle était censée accroître l'efficacité relative des interventions monétaires. Mais à vrai dire, la portée de ces arguments s'est trouvée en bonne partie réduite par la constitution de zones monétaires régionales (tout spécialement de la zone euro) à la recherche d'une solution à la volatilité déstabilisante des parités laissées au libre jeu des marchés.
Après la crise financière, une remise en cause de la libéralisation ?
La Grande Modération, c'est-à-dire la faible volatilité de l'inflation et de l'activité observée durant les années 1990, a été considérée comme une preuve de l'efficience du consensus auquel on était parvenu16. Mais en réalité la « Modération » en question n'a pas été uniformément grande dans les différents pays. C'est principalement aux États-Unis que ces caractéristiques se sont le plus clairement révélées, mais en France, par exemple, la stabilisation de l'inflation et du change a eu pour contrepartie une conjoncture déprimée entre 1992 (date de la première récession de l'après-guerre) et 1998. Qui plus est, il n'a toujours pas été démontré que le phénomène était imputable à la politique monétaire plutôt qu'à des transformations structurelles des économies, à l'intégration des pays émergents dans les échanges internationaux, ou à la simple coïncidence d'aléas favorables (Bean, 2010).
Quoi qu'il en soit, il se peut que la Grande Modération ait contribué à la montée des déséquilibres financiers qui se sont développés vers la fin de la période. Parce que la stabilité observée et le succès apparent de la régulation ont possiblement réduit la vigilance des agents et des responsables économiques, les incitant à des prises de risque excessives. Naturellement les crises financières du début des années 2000 avaient bien d'autres causes. Mais lorsque celle des subprimes a succédé à l'éclatement de la bulle internet, on n'a pu s'empêcher de penser que le consensus était au moins incomplet et peut être gravement erroné dans ses principes. Dès lors, ses différentes composantes, qui formaient un ensemble cohérent, ont été globalement remises en cause.
L'objectif oublié de stabilité financière
Lorsque la crise des subprimes s'est déclarée, même si elles y étaient peu préparées, les banques centrales ont joué très vite et de façon coordonnée leur rôle de prêteur en dernier ressort. Elles ont donc entrepris dans un premier temps d'offrir la liquidité nécessaire pour répondre au gel des transactions sur les marchés monétaires, résultant de la défiance qui s'était installée entre les établissements17. Elles ont aussi réduit leurs taux directeurs pour amortir l'effet sur le crédit, la BCE se montrant sur ce point la plus réservée jusqu'à la faillite de Lehman Brothers. Puis elles ont participé, de façon plus ou moins directe, au sauvetage de diverses institutions, franchissant ainsi la frontière entre l'apport en liquidité et le soutien à des établissements insolvables. Enfin, elles ont contribué à réduire le coût et ont permis l'accroissement des dettes publiques.
Cela contrevenait, en bonne partie, aux règles qu'elles s'étaient fixées et qui s'inscrivaient dans la logique du consensus. Ce qui revient à dire qu'elles ont dû pousser plus loin qu'elles ne l'avaient imaginé le « nettoyage » des dégâts causés par la montée (puis la rupture) des dysfonctionnements financiers (le clean afterwards). Plus précisément, il s'agissait de limiter l'ampleur de ces dégâts. On sait néanmoins que le coût de cette crise a été extrêmement élevé, et sans aucun doute il a été bien plus important que le coût des mesures qui auraient pu être prises par les banques centrales, mais aussi par les régulateurs et les superviseurs, afin de prévenir le développement des déséquilibres financiers. De sorte que les deux arguments invoqués pour justifier le principe de « douce insouciance » (« benign neglect ») envers l'instabilité financière se sont révélés incorrects : il n'est pas vrai que la maîtrise de l'inflation garantit ni même conditionne la stabilité financière, et il est faux de croire que le coût du « nettoyage » a posteriori des dommages causés par les déséquilibres financiers est inférieur à celui de leur prévention.
En conséquence, la stabilité financière est devenue, de façon plus ou moins explicite, un nouvel objectif des politiques monétaires. Ce qui constitue pour les banques centrales une sorte de retour à leur mission initiale (Goodhart, 1988). Or cela renvoie à deux problèmes assez délicats. D'une part, il n'est pas simple de définir la stabilité financière pour pouvoir en confier la responsabilité à une institution indépendante. Il est vrai que différents travaux ont montré que les bulles de crédit et de prix d'actifs sont de bons indicateurs avancés des crises financières, mais le repérage du développement de ces bulles est un exercice difficile. D'autre part, se pose la question de savoir quels sont les instruments que les autorités monétaires doivent utiliser pour exercer cette nouvelle responsabilité. Faut-il que ce soient les taux directeurs dont la fixation deviendrait aussi fonction de ce nouvel objectif ? Ce qui reviendrait à accroître les arguments de la fonction de réaction de la banque centrale. Ou alors faut-il, en suivant le principe de Tinbergen, dédier un nouvel instrument à ce nouvel objectif et qui devrait alors en avoir l'usage ?
Une gamme des instruments plus large et moins soucieuse
de « neutralité de marché »
Mais avant de chercher à répondre à ces questions, on observera que les instruments affectés à la stabilisation de l'inflation et au réglage conjoncturel ont aussi été sérieusement modifiés durant la crise. Cela constituant un surprenant retour en arrière par rapport aux principes directeurs de la libéralisation financière.
D'abord les banques centrales ne se sont pas limitées à assumer leur rôle de prêteurs en dernier ressort en offrant à court ou très court terme leur liquidité aux établissements bancaires. Elles ont également allongé la durée de leurs refinancements, mais surtout elles sont intervenues sur le marché monétaire pour assurer la liquidité d'actifs émis ou détenus par des institutions financières non bancaires et même par des entreprises non financières (le commercial paper aux États-Unis). Ce qui revient à dire que les banques centrales sont devenues des sortes de « teneurs de marché en dernier ressort » pour éviter que l'illiquidité des actifs en question n'entraîne, par un effet de domino, un effondrement de l'ensemble du système. Ce faisant elles sont intervenues dans la formation des prix d'actifs concernés et ont accepté la prise de risque que cela comportait.
Dans un ordre d'idée un peu différent, elles ont aussi mené des opérations ciblées de refinancement pour favoriser l'offre de certains types de crédits ou pour faciliter le refinancement de certains types d'agents (les PME en particulier). Mais ce sont surtout les programmes d'assouplissement quantitatif (QE) qui ont signé la fin du principe de neutralité de marché. On a du reste parlé d'un nouvel instrument de politique monétaire à propos de ces achats massifs d'actifs qui se sont traduits par des accroissements impressionnants de la taille des bilans des banques centrales : par exemple, ceux de la Fed et de la Banque d'Angleterre ont été multipliés par 3 entre 2007 et 2011, ceux de la BCE par un peu plus de 2. Il est peut-être maladroit de parler de nouvel instrument pour évoquer ces évolutions. En fait, elles ne font que refléter les interventions sur les spreads de terme motivées par le fait que les baisses de taux directeurs se répercutaient trop peu et trop lentement sur le coût de l'endettement public et privé de long terme. De même que la BCE est intervenue pour réduire les écarts de taux entre les dettes publiques des membres de la zone euro lors de la crise de 2011 et 2012. Dans tous les cas, les autorités monétaires ont cherché à corriger les niveaux des primes de risque sur les marchés : il s'agissait donc moins d'une innovation que d'un retour en arrière.
Les instruments susceptibles de prévenir les déséquilibres financiers ne sont pas tous non plus des nouveautés. La régulation microprudentielle mise en place vers la fin des années 1980 était précisément destinée à garantir la stabilité des institutions financières sans que cela se traduise par des contraintes inefficientes sur leur comportement, tout en préservant un environnement concurrentiel. La crise ayant démontré que cette régulation comportait de nombreuses insuffisances, de nouveaux accords se sont efforcés d'y remédier, en préservant la logique du système. Mais ces dispositifs ne concernaient pas la politique monétaire à proprement parler. À ceci près que, durant la crise, les informations dont disposait le système de supervision se sont révélées utiles pour la compréhension des événements et le calibrage de certaines opérations. La distanciation qui s'était précédemment amorcée entre les politiques monétaire et microprudentielle, au nom de leur indépendance respective, s'est donc quelque peu effacée. À tel point que le Royaume-Uni a renoncé à la séparation entre l'Autorité de supervision (la FSA) et la Banque d'Angleterre, et qu'aux États-Unis, la Fed a récupéré la supervision des banques de grande taille.
Cela dit, au-delà du microprudentiel, la crise a fait (re)découvrir le risque systémique qui naît des interdépendances entre les déséquilibres financiers individuels et qui tend à les amplifier18. Sans entrer dans le détail de ces mécanismes et des réflexions qu'ils ont suscitées, disons que le besoin s'est fait sentir de mettre en place un ensemble d'outils et de pratiques capables d'en maîtriser les effets. On en a même déduit que cet ensemble qualifié de « macroprudentiel » pouvait être considéré comme une sorte de troisième volet de la régulation macroéconomique, à côté des politiques monétaire et budgétaire, et par le fait même distinct de l'une et de l'autre. Cela parce que le principal instrument de la politique monétaire stricto sensu (le maniement des taux d'intérêt) ne pouvait être affecté à deux objectifs différents et éventuellement conflictuels. Et aussi parce que cet instrument était peu efficace pour freiner une bulle de crédit ou de prix d'actifs, ou pour rompre l'enchaînement cumulatif entre cycle financier et cycle d'activité. On peut en dire autant des objectifs et des instruments de politique budgétaire.
Les outils de politique macroprudentielle, qui restent d'ailleurs à compléter et à définir plus rigoureusement, sont d'une autre nature. Il s'agit notamment de coussins contracycliques de fonds propres, de contraintes sur les conditions de crédit (taux minimum d'apport), de surcroîts de fonds propres pour les banques systémiques, etc. (Garcia Revelo et al., 2019). Des instruments qui rappellent dans leur principe certains de ceux qui étaient utilisés dans la période précédant la libéralisation financière (Monnet, 2019).
Toutefois, le fait d'avoir identifié un objectif et une catégorie d'instruments pour l'atteindre ne résout pas la totalité du problème. Il reste encore à définir l'instance qui doit avoir la responsabilité de la mise en œuvre de la politique macroprudentielle : doit-elle être, par exemple, confiée à la banque centrale ou à une nouvelle institution ? Il faut également tirer les conséquences des interactions entre cette politique et les politiques monétaire et budgétaire. Car s'il est vrai que celles-ci ne sont pas à même de traiter efficacement les risques financiers systémiques, leurs décisions présentent des interférences avec le macroprudentiel. Ce qui rend utile, si ce n'est nécessaire, une coordination qui n'est pas sans conséquence sur le statut des banques centrales.
L'indépendance perdue ?
Depuis le déclenchement de la crise, le principe d'indépendance des banques centrales a été pratiquement sacrifié. Les politiques monétaires ont en effet subi une « dominance » à la fois financière et budgétaire. Comme il a été dit, elles ont joué leur rôle de prêteurs en dernier ressort au-delà du contenu que l'on donne généralement à cette expression. Puis elles ont assuré la solvabilité des États en achetant des montants très importants de dettes publiques pour en maintenir les taux d'intérêt à des niveaux très faibles. En l'occurrence, elles n'ont pas cédé à l'influence des pouvoirs publics ou d'autres groupes de pression ; elles ont tout simplement cherché à limiter un effondrement du système financier et/ou des finances publiques qui aurait engendré une perte totale de contrôle. Mais plus de dix ans après, le retour à la « normale » se fait toujours attendre, et l'arrivée d'une pandémie au début de 2020 va encore prolonger l'échéance. Les marges de liberté des politiques monétaires sont extrêmement limitées, au point que la notion d'indépendance n'a plus de sens aujourd'hui dans les faits.
Mais même en admettant que les politiques monétaires parviennent à moyen-long terme à se libérer des contraintes héritées des crises de ces deux dernières décennies, la poursuite de l'objectif de stabilité financière restera un défi à l'application du principe d'indépendance. Car s'il est vrai que confier aux banques centrales les politiques micro et macroprudentielles leur permettrait en principe de les coordonner au mieux avec les décisions monétaires stricto sensu, cette solution présenterait divers inconvénients. D'une part, cela donnerait un pouvoir excessif aux autorités monétaires et rendrait difficile la formulation d'un mandat de délégation suffisamment clair et précis. D'autant que certaines décisions dans le domaine du macroprudentiel ne sont pas purement techniques et ont une dimension politique. D'autre part, il resterait à concevoir une coordination avec la politique budgétaire qui présente aussi des recouvrements avec le macroprudentiel (par exemple, le traitement fiscal des charges d'intérêt).
Dans ces conditions, l'autre type de solution consiste à confier la responsabilité de l'objectif de stabilité financière à un comité composé de représentants de la banque centrale, mais aussi des autorités de supervision ainsi que du pouvoir politique (Blot, 2019). C'est du reste aujourd'hui la formule la plus souvent adoptée, le comité étant généralement présidé par un responsable gouvernemental. Auquel cas, même si la banque centrale garde, par son expertise, le pouvoir d'influencer les décisions, le champ de son indépendance se trouve sérieusement restreint19. Or cette restriction touche précisément la fonction de stabilité financière qui était à l'origine de la création des instituts d'émission et procédait du pouvoir de création de la « liquidité centrale » qui leur avait été consenti. De ce point de vue, la perte d'indépendance peut être justifiée, car il s'agit d'une responsabilité du politique difficilement aliénable.
Des arguments pour un retour au contrôle des mouvements de capitaux
La flexibilité des changes était censée assurer l'autonomie des politiques monétaires nationales en situation de liberté des mouvements de capitaux. Or l'expérience des années 1990 n'a guère confirmé cette proposition. D'abord parce que l'excessive volatilité des parités a été une source de déséquilibres qui a rendu plus compliqué l'exercice de la politique monétaire. Mais surtout parce que divers travaux ont montré que la flexibilité des changes avait laissé subsister des interdépendances notables entre les conditions de financement dans nombre de pays. Certains de ces travaux ont développé l'idée d'un cycle financier global impulsé principalement par les États-Unis. Cela a donné lieu à des débats empiriques contradictoires, mais dans l'ensemble, on s'accorde pour reconnaître qu'il existe une corrélation au plan international entre les taux longs, les prix d'actifs et les évolutions du crédit (Cartapanis, 2019).
Dès lors, le trilemme de Mundell se ramène à un dilemme : c'est-à-dire qu'il faut choisir entre la libre circulation des capitaux et l'indépendance de la politique monétaire (Rey, 2015). Et de fait, on constate que, même parmi les pays avancés, certains (le Canada, le Royaume-Uni, la Suède notamment) ont éprouvé le besoin, depuis la fin des années 1990, d'intervenir sur les marchés de change, abandonnant ainsi l'un des aspects importants de la libéralisation financière.
Par ailleurs, les réflexions sur les politiques prudentielles, suscitées par la crise, ont fait ressortir l'idée d'un nouveau trilemme concernant l'objectif de stabilité financière (Schoenmaker, 2011). Il consiste à dire que, dans un monde de finance globalisée, l'objectif en question ne peut être atteint par des politiques purement nationales. Cela s'explique simplement par des interdépendances (des externalités, des effets de débordements) entre ces politiques. Elles se manifestent, par exemple, lorsque dans un pays donné une « banque globale » est conduite à la faillite (peut-être du fait d'une mauvaise supervision) et affecte ainsi les systèmes bancaires dans ses autres pays d'implantation. Mais ces effets de débordements peuvent aussi se produire lorsqu'un pays décide de durcir en réglementation, incitant ainsi certaines de ses banques à investir davantage à l'étranger et à y prendre des risques accrus ou à initier des financements extérieurs en substitution à des crédits domestiques contraints.
Dans tous les cas, le fait de laisser les politiques prudentielles à la seule responsabilité des autorités nationales conduit à des situations sous-optimales, et la solution consiste théoriquement à coordonner ces politiques au niveau supranational. C'est du reste selon cette logique qu'ont été conçus les Accords de Bâle et, s'agissant des politiques macroprudentielles, on notera, par exemple, que l'instauration de coussins contracycliques a été assortie, dans certains cas, d'une clause de réciprocité visant à éviter l'arbitrage réglementaire. Mais au-delà de ces avancées, on sait que la coordination des politiques macroéconomiques reste un exercice complexe souvent invoqué et peu pratiqué. Il suppose en effet que l'on s'accorde sur les instruments, sur l'évaluation des effets de débordements ; il suppose aussi que les pays concernés y trouvent des avantages, que les dispositions adoptées ne contrarient pas le traitement des chocs idiosyncratiques.
Autant dire que cela relève largement de l'utopie, de sorte que l'on se trouve ici aussi ramené à un dilemme : choisir entre la stabilité financière et la liberté des mouvements de capitaux. Mais ce choix n'en est pas un, car on ne voit guère comment sacrifier la stabilité ; et l'on se trouve alors naturellement amené à privilégier la mise en place de restrictions aux mouvements de capitaux ou de certains d'entre eux. Il est vrai que la voie est étroite car on ne peut totalement se priver des avantages d'une allocation internationale des capitaux. L'idée n'est donc pas de les interdire, mais plutôt de trouver les moyens de permettre aux économies de réduire leur exposition aux risques de chocs financiers extérieurs. En ce sens, on peut penser à l'utilisation d'instruments macroprudentiels tels que la constitution de réserves obligatoires sur les dépôts des résidents, des contraintes (ou la constitution de fonds propres) sur les positions ouvertes en devises des banques domestiques, etc.
Conclusion
Ce bref passage en revue des conceptions et des pratiques de politique monétaire, durant les sept à huit dernières décennies, se proposait d'illustrer la diversité des fonctions que les banques centrales avaient exercées. Les évolutions observées ont été profondes et n'ont nullement été linéaires ; elles ont emprunté successivement des directions opposées. On peut ajouter qu'aujourd'hui certains évoquent de nouveaux élargissements des objectifs de politiques monétaires pour les amener à contribuer à la transition écologique ou même à la réduction des inégalités.
Dans ces conditions il ne saurait être question, nous semble-t-il, de construire une théorie générale (ou englobante) des politiques monétaires au sens large (du central banking). En d'autres termes, il paraît impossible d'ébaucher un modèle ou une stratégie (par exemple, un ciblage d'inflation « augmenté ») intégrant la diversité des objectifs pondérés selon les circonstances et les priorités du moment. De même que l'on ne voit pas comment formuler une définition optimale des structures, instruments et statuts des banques centrales20.
Il reste toutefois dans cette histoire une constante qui tient au pouvoir de création de monnaie centrale qui donne aux instituts d'émission la capacité d'affecter la pyramide des dettes et des créances, et ainsi de solvabiliser certains agents ou besoins de financement. Or cela constitue un levier essentiel de régulation macroéconomique qui possède à l'évidence une dimension politique. C'est pourquoi il doit être protégé d'abord contre la tentation de ceux qui en disposent de se décharger de la responsabilité qui en résulte. Mais aussi contre son appropriation non délibérée par des acteurs privés, au travers d'émissions de monnaies échappant au contrôle de la puissance publique.