Au moment où nous rédigeons cette introduction, la Banque centrale européenne (BCE) a abaissé son taux directeur à zéro. En échange de garanties admissibles, les banques de l’Union économique et monétaire (UEM) européenne peuvent emprunter gratuitement des liquidités à la BCE. Cette mesure est, bien entendu, tout à fait inhabituelle. Cela fait près de soixante-dix ans que les économies avancées de l’Atlantique Nord n’ont pas enregistré des taux d’intérêt nominaux aussi bas. En réalité, plusieurs décennies après la Grande Dépression des années 1930, les taux atteignant la borne zéro avaient presque complètement disparu des mémoires. Dans les rares cas où les manuels en faisaient mention, ce n’était guère qu’au titre de curiosités historiques. Malgré les difficultés rencontrées par le Japon depuis le milieu des années 1990, l’idée que la politique monétaire puisse perdre en efficacité était inenvisageable.
Hélas, pour reprendre les termes de Paul Krugman, « it’s baaack! ». Près de sept ans après son déclenchement, la fin de la crise – ou la fin des mesures non conventionnelles (le fameux « exit ») – semble encore bien loin. A l’heure actuelle, cela vaut tout particulièrement pour l’UEM. Même les premiers pas de la Federal Reserve (Fed) des États-Unis vers la délicate sortie de crise sont timides et hésitants. Dans la zone euro, la BCE n’a pas atteint son objectif d’inflation – inférieure à, mais proche de, 2 % – au cours des trois dernières années. Le taux d’inflation globale est aujourd’hui inférieur à zéro et l’inflation sous-jacente – excluant les éléments volatils – s’élève à 0,7 % et continue de diminuer. Des rendements nominaux aussi faibles ne rassurent évidemment pas les créanciers. Ils discréditent les promesses de rendement formulées implicitement et explicitement par les gestionnaires d’actifs et mènent la vie dure aux banques, qui vivent dans une large mesure de l’écart entre les deux extrémités de la courbe de rendement, c’est-à-dire de la transformation des échéances.
Dans ce contexte, ce numéro de la Revue d’économie financière (REF) s’articule autour de quatre thèmes, à commencer par les causes (financières) directes de la baisse des taux nominaux, étroitement liée, du moins en première approximation, à la Grande Crise financière et à la réponse des autorités monétaires. La deuxième partie traite des causes réelles sous-jacentes des déséquilibres, par opposition aux causes financières. La théorie classique voudrait qu’à terme, les taux d’intérêt réels reflètent les perspectives de croissance, le potentiel d’une économie à l’avenir. Selon cette même théorie, la politique monétaire n’aurait d’impact que pendant les deux années qui suivent, tout au plus. Évidemment, un contexte de taux bas pose un défi majeur aux gestionnaires d’actifs. (Et projette par ailleurs un éclairage nouveau sur le débat qui oppose les systèmes par capitalisation aux systèmes par répartition.) Ce sont ces thèmes qu’aborde la troisième partie du numéro. Enfin, dans nos économies fortement intégrées, la faiblesse des taux s’accompagne évidemment de répercussions transfrontalières. Ces corrélations peuvent facilement devenir conflictuelles (et entraîner une guerre des monnaies, sujet du numéro 119 de la REF). En outre, dans des marchés fortement intégrés ou mondialisés, ces faibles taux peuvent avoir des causes internationales ou génériques, comme en témoignent les deux derniers articles.
Le point sur la situation
Nous commençons notre tour d’horizon par quelques remarques concises et instructives de l’ancien gouverneur de la Banque de France, Christian Noyer, qui fait le point sur la situation. Lorsque en 1998, il était entré à la banque centrale, les taux zéro n’étaient qu’une possibilité purement théorique. Pourtant, ils avaient finalement caractérisé près de la moitié de sa mandature de gouverneur. Un tel état de fait est le corollaire logique d’un équilibre de taux bas réels, qui lui-même reflète le (faible) potentiel de croissance de nos économies engagées dans la « déflation des bilans » et le désendettement. Ces évolutions ont, évidemment, compliqué et contraint les choix de politique monétaire. Dans le même temps, la recherche de rendement accroît les risques d’instabilité financière, ce qui constitue un défi particulièrement redoutable auquel la politique macroprudentielle n’a pas encore apporté de réponses adéquates. C’est forcées et contraintes que les banques centrales sont devenues non conventionnelles. Dans un environnement de taux bas persistants, ces politiques, y compris la taille accrue des bilans des banques centrales, risquent de devenir la norme. De fait, un bilan plus important peut plus facilement être redéployé à des fins de stabilisation. Enfin, dans la mesure où le temps de la Grande Modération est révolu, il se pourrait que les politiques de ciblage d’inflation qui ont été dominantes pendant ces années doivent être reconsidérées et amendées.
Adoptant une perspective temporelle beaucoup plus ample sur la trajectoire des taux d’intérêt, Vivien Levy-Garboua et Éric Monnet (Banque de France) offrent une description exhaustive de l’évolution des taux au cours des deux siècles passés. En France, les taux nominaux courts et le taux directeur déterminé par la banque centrale ont connu des comouvements sur une longue période. Et, plus frappant encore, entre 1800 et 1971, qui marqua la fin du système de Bretton Woods, les taux nominaux, et notamment le taux directeur, ont été remarquablement stables, en dépit de quelques variations cycliques. La décennie 1970, marquée par une forte inflation (consécutive aux deux chocs pétroliers et à l’indexation salariale), constitue une rupture : les politiques monétaires devinrent partout anti-inflationnistes, en Europe sous la conduite de la Bundesbank et aux États-Unis avec les efforts de Paul Volcker pour réduire rapidement et presque brutalement l’inflation. (Durant ces années, la question principale a plutôt été de comprendre pourquoi les taux étaient si élevés.) L’une des équations classiques de l’analyse monétaire, la corrélation entre le taux nominal et l’inflation (l’équation de Fisher), n’a commencé à apparaître empiriquement qu’à la fin des années 1960. En France, les taux du marché interbancaire ont constamment suivi le taux directeur de la banque centrale, qui a fait preuve d’une remarquable stabilité, à la différence de ceux de la Banque d’Angleterre dont les modifications de taux ont été beaucoup plus fréquentes. Cependant, les taux nominaux longs ont été, dans ces deux pays, très voisins et d’une grande stabilité. En revanche, la courbe des taux, écart entre le taux court et le taux long, a été, en France, d’une grande volatilité. Après la Seconde Guerre mondiale, elle a, en moyenne, eu une pente légèrement positive, traduisant l’existence d’anticipations inflationnistes, ce qui suggère qu’une faible inflation s’accompagne d’un spread réduit, donc d’une faible marge d’intermédiation. Au contraire des taux nominaux, les taux réels, corrigés de l’inflation, ont fluctué fortement, voire brutalement, jusqu’au début des années 1950, avant de se stabiliser aux alentours de zéro jusqu’au début des années 1980, puis d’augmenter fortement et de se maintenir autour de 4 % jusqu’au début des années 2000, puis de redescendre régulièrement jusqu’à moins de 1 % aujourd’hui. Il est intéressant de noter que la différence entre le taux réel long et le taux de croissance tendanciel de l’économie (l’écart critique) a été positive avant 1914, puis négative la plupart du temps jusqu’au milieu des années 1980, avant de redevenir positive et de le demeurer (elle est aujourd’hui proche de 1 %). La grille de lecture fournie par la règle de Taylor permet de distinguer trois périodes dans la conduite de la politique monétaire française : durant les Trente Glorieuses, jusqu’au début des années 1970, la Banque de France a stabilisé son taux directeur entre 3 % et 4 %, combattant l’inflation à l’aide, principalement, de mesures quantitatives de rationnement du crédit ; en réponse à la Grande Inflation, la politique monétaire française a réagi plus fortement que ne l’aurait impliqué la règle de Taylor (poursuivant implicitement un objectif d’agrégat monétaire) ; et depuis le début des années 1980, elle a très largement suivi une trajectoire conforme à la règle de Taylor (contracyclique), stabilisant le taux d’inflation aux environs de sa valeur-cible (à peu près 2 %). En termes de taux réels, cette politique a engendré une baisse tendancielle depuis la fin des années 1980. Effectivement, les taux réels font apparaître une « continuité » remarquable depuis le début de la Grande Désinflation. Et ils sont aujourd’hui aux alentours de zéro, non en raison d’une poussée inflationniste, mais parce que les taux nominaux sont eux-mêmes bas, reflétant la singularité de la politique monétaire actuelle au regard de toutes les périodes précédentes.
Dysfonctionnements des marchés et réponses de la politique monétaire
Avant la Grande Crise financière, le mandat des banques centrales modernes était clairement défini : la politique monétaire reposait (en grande partie) sur le ciblage d’inflation. Les taux d’intérêt à court terme étaient le principal instrument de politique monétaire. Cela pouvait être transposé simplement sous forme d’un modèle à trois équations. Benjamin M. Friedman (université d’Harvard) souligne en premier lieu les défis auxquels sont confrontés les responsables de la politique monétaire à la suite de la crise financière, avant de détailler la portée et l’ampleur sans précédent des mesures de sauvegarde. Il met en particulier l’accent sur l’utilisation du bilan des banques centrales – en termes de taille ainsi que de structure – visant à stabiliser les marchés financiers. Les achats d’actifs ont remplacé l’utilisation du taux directeur dans la conduite opérationnelle de la politique monétaire. Par ailleurs, pour calmer les incertitudes sur les marchés, l’orientation prospective (forward guidance), auparavant uniquement préconisée par les chercheurs, est devenue l’un des outils de la politique des banques centrales. Dans le cadre de ces mesures extraordinaires ou non conventionnelles, la théorie quantitative de la monnaie (monétarisme) s’est révélée dépassée ou, en tout cas, inopérante. Ainsi, en conséquence de la crise, la politique monétaire dispose désormais de deux instruments indépendants : le taux directeur et la taille (ainsi que la structure) du bilan. Contrairement à l’approche monétariste (axée sur le passif du bilan), l’accent est mis ici sur l’actif du bilan, et en particulier sur sa structure. La théorie devra rattraper son retard afin d’intégrer cette nouvelle réalité.
John Hutchinson (BCE) et Peter Praet (BCE) nous font prendre conscience des difficultés auxquelles sont confrontés les responsables de la politique monétaire face à la montée des incertitudes qui exigent des réponses en temps réel. L’agnosticisme n’est pas une option. Ces incertitudes ont différentes causes. Il est terriblement difficile de mesurer – une fois encore en temps réel – l’écart entre la production potentielle et la production réelle. (Cela est également dû au fait que la production potentielle n’est pas un facteur exogène aux décisions des responsables politiques.) Ensuite, les connaissances sur l’effet « caisse de résonance » économique ne sont qu’approximatives. Le résultat des impulsions monétaires est, par nature, imprécis. Enfin, les acteurs économiques sont des « agents apprenants ». Ils réagissent par anticipation aux mesures politiques et, par conséquent, influencent leur efficacité. En dépit du contexte prévalant après une crise prolongée, les banques centrales doivent prendre des mesures fortes, sinon elles contribueront à la montée des incertitudes.
Prendre des mesures fortes dans le but de donner une orientation et de réduire les incertitudes revient à s’engager sur la voie de politiques non conventionnelles. Marco Leppin et Joachim Nagel, tous deux de la Deutsche Bundesbank, résument succinctement la réaction de la BCE face à la Grande Crise financière, puis face à la crise de la dette souveraine dans les pays de l’Europe périphérique. Réduction drastique du taux directeur, soutien aux marchés des obligations sécurisées, lancement d’un programme d’achats d’obligations du secteur public sur les marchés secondaires et opérations de financement à très long terme pour les banques, telles sont les mesures prises depuis 2012. Puis, face à l’éventualité d’un effondrement, Mario Draghi, président de la BCE, a déclaré que la BCE était « prête à faire tout ce qu’il faudrait », « dans le cadre de son mandat », bien entendu, préparant le terrain pour le programme OMT (Outright Monetary Transactions), un dispositif ciblé de soutien à la liquidité pour les marchés des obligations souveraines. Cette mesure de soutien à la liquidité était conditionnée à l’acceptation par le Mécanisme européen de stabilité d’un programme de consolidation budgétaire. Par la suite, les primes de risque ont considérablement baissé et les émissions ont pu reprendre. Toutefois, l’impact des mesures se dissipant au fil du temps, la BCE a dû mettre les bouchées doubles. En 2014, elle a instauré un taux négatif sur les dépôts et lancé au début de 2015 un programme étendu d’achats d’actifs sur le marché secondaire. Ces programmes pourraient inciter les acteurs du marché à prendre des risques injustifiés et également décourager les autorités publiques de redresser le cap de leur politique budgétaire. La politique monétaire se rapproche (dangereusement) de la politique budgétaire, pour laquelle elle n’a aucun mandat. Les marchés monétaires se désintègrent, entre ceux qui sont en situation d’excès et ceux qui souffrent d’une pénurie de liquidité, et ne fonctionnent plus normalement. La sortie de cette politique s’annonce d’autant plus difficile.
Inévitablement, les mesures visant à garantir la stabilité financière sont confrontées à la forte interdépendance entre les politiques monétaires, de stabilité financière et budgétaire. Jaime Caruana (BRI) et Ilhyock Shim (BRI) dressent la liste des tâches inachevées par les banques centrales en matière de politique macroprudentielle. Il est intéressant de noter que cette perspective systémique n’a été légitimée qu’à la suite de la Grande Crise financière. Aujourd’hui, en grande partie grâce aux efforts de la BRI, le risque systémique – procyclicité des prix et flux financiers, interconnexions (via les positions créditrices brutes) et exposition à des incertitudes communes – figure désormais sur les écrans de contrôle des responsables de la politique monétaire. Selon une distinction pertinente établie par Claudio Borio, les problèmes macroprudentiels peuvent s’accumuler, de façon prolongée, au fil du temps ou toucher tous les secteurs de l’économie, induits par des externalités qui se renforcent mutuellement1. Jaime Caruana et Ilhyock Shim soulignent quatre points : la politique macroprudentielle est aujourd’hui un domaine reconnu, qui présente des spécificités nationales ; les déséquilibres financiers peuvent effectivement être importants et nécessiter l’utilisation de tous les instruments politiques disponibles, monétaires, macroprudentiels et budgétaires (impôts, par exemple) ; inexorablement, les mesures politiques ont des répercussions transfrontalières face auxquelles il est nécessaire de coopérer ; enfin, les instabilités émergent souvent sur les marchés des capitaux, à savoir hors des banques. Un taux directeur à contre-courant des tendances du marché constituerait alors une réponse adéquate.
Déséquilibres réels : les raisons fondamentales
Les taux d’intérêt – nominaux ou réels – ne surgissent pas du néant. Ils sont le résultat d’une combinaison d’influences, fondées sur les décisions d’épargne et d’investissement des épargnants et des investisseurs finals. Kiyohiko Nishimura (université de Tokyo et ancien sous-gouverneur de la Banque du Japon) part du constat que sept ans après le déclenchement de la Grande Crise financière, malgré tous les efforts entrepris, les économies ne sont pas revenues à leurs niveaux d’avant-crise. Dans certains pays d’Europe en particulier, le PIB (produit intérieur brut) par habitant est toujours bien inférieur aux valeurs de 2007. (Ce constat se vérifie également dans certains États des États-Unis particulièrement touchés par la crise du secteur immobilier.) Ces niveaux témoignent de l’existence de causes structurelles plus profondes. Kiyohiko Nishimura en souligne trois : l’effet de frein persistant causé par l’éclatement des bulles immobilières, la prédominance croissante des technologies de l’information et de la communication défavorables à l’emploi, et la transition vers une phase de fardeau démographique avec une population vieillissante. Ces bouleversements « sismiques » contribuent au ralentissement de la demande globale, celle-ci étant également moins réceptive aux mesures de relance, à l’affaiblissement de la capacité à surmonter les nouvelles difficultés, à l’importance accrue de l’utilisation du bilan des banques centrales en tant qu’outil de stabilisation (par opposition à l’utilisation du taux directeur) et, surtout, à une forte hausse de l’incertitude. À la lumière de ces éléments, la mise en œuvre de changements structurels est essentielle et doit inclure des programmes de financement ciblés pour encourager les PME innovantes. Les banques centrales ont un rôle particulièrement important à jouer pour fournir et traiter les informations.
Pour les économies occidentales, les perspectives semblent moroses. Face à la lente (et dans de nombreux pays, très incomplète) reprise après la Grande Crise financière, une nouvelle interprétation gagne du terrain : nous serions aux prises avec une stagnation séculaire qui se caractériserait également par la faiblesse des taux d’intérêt. Richard N. Cooper (université d’Harvard) souligne avec pertinence que ces perspectives médiocres de croissance à moyen terme peuvent être la conséquence (1) de la capacité de croissance réduite d’une économie ou (2) d’une demande globale limitée, entraînant un écart de production quasi permanent. Ainsi, la croissance peut être structurellement limitée car la main-d’œuvre diminue, ce qui est en effet le cas dans plusieurs pays, ou parce que les progrès techniques ne sont pas suffisants pour compenser (en termes de productivité) cette perte de main-d’œuvre. L’insuffisance de la croissance peut également être due au fait que la volonté d’épargner est structurellement supérieure aux possibilités d’investissement attrayantes – ne parvenant à l’équilibre qu’avec des taux d’intérêt réels négatifs. Richard N. Cooper analyse ces éléments sur le plan historique, montrant les similitudes (et les différences) entre les actuelles théories pessimistes quant à la productivité (en particulier celle de Robert Gordon, Northwestern University) et le concept de stagnation séculaire inventé par Alvin Hansen de l’université d’Harvard. Un certain nombre d’obstacles entravent l’économie américaine (notamment l’évolution démographique structurelle, le déclin de la qualité de l’enseignement secondaire, etc.). Toutefois, certains problèmes de mesure se posent également, la production (valeur ajoutée) n’étant pas correctement prise en compte, alors qu’elle constitue un paramètre très pertinent dans les économies où dominent les secteurs des services. La thèse de l’insuffisance de la demande globale ne figure pas dans les modèles des manuels. Pour ceux-ci, les taux d’intérêt doivent équilibrer l’offre et la demande de liquidités. Pourtant, sur le plan empirique, l’élasticité des dépenses en capital aux taux d’intérêt est très faible et avec de faibles taux d’inflation, les taux nominaux sont proches de zéro, réduisant la marge de manœuvre des politiques de relance. Ainsi, le manque général de demande est plausible, avec des conséquences néfastes sur le capital humain (longues périodes de chômage). Avec leur déficit courant persistant (et considérable), les États-Unis jouent un rôle spécial, celui de banquier du monde en quelque sorte. Les preuves de la stagnation séculaire s’accumulent – investissements insuffisants, épargne excessive – dans de nombreuses régions du monde. Pour faire face aux difficultés de la stagnation séculaire, Richard N. Cooper met en avant trois options : redistribuer les revenus (pour soutenir la demande effective), répondre aux besoins d’infrastructures et s’atteler à l’immense défi du changement climatique.
Michel Aglietta (Cepii et France Stratégie) débute par ce constat : nous sommes confrontés à un niveau d’incertitude qu’il qualifie de radical, sans précédent depuis la Seconde Guerre mondiale. Il place la crise actuelle, la Grande Stagnation (2008- ?), sur le même plan que les deux précédentes crises majeures – la Grande Déflation (1873-1896) et la Grande Dépression (1929-1949). Il les considère comme des crises d’adaptation ou d’ajustement face aux difficultés découlant de l’introduction de technologies génériques qui marquent la fin des régimes de croissance qui prévalaient jusqu’alors et l’émergence de nouveaux modes de production et de financement. De nouvelles institutions doivent être mises en place pour favoriser la cohérence systémique, c’est la principale incertitude à laquelle nos sociétés sont confrontées. Cette incertitude, qui s’accompagne de risques difficiles à appréhender, est également synonyme de très faibles dépenses en capital. Il serait insoutenable sur les plans sociétal et politique que des taux d’intérêt naturels bas étouffent l’investissement et, par conséquent, la productivité, l’emploi et les salaires décents. Les dysfonctionnements du secteur financier font partie intégrante de ce scénario, notamment la fragilité du système financier basé sur le dollar, sans dispositif adéquat de soutien à la liquidité, entraînant de façon endogène un excès d’épargne (accumulation de réserves de change par de nombreuses économies pour se prémunir contre d’éventuels chocs de liquidité). Le système financier doit changer – adopter une perspective à long terme, conjuguer rentabilité sociale et financière – afin de relever le défi de cette nouvelle révolution industrielle. Ce changement passe par une restructuration du secteur bancaire, séparation entre la banque de détail et la banque d’investissement, entre autres, mais implique également de bien comprendre les rouages du shadow banking.
« Pourquoi personne n’a-t-il pu prévoir ce qui arrive ? » La réponse à la question de la Reine Élisabeth est simple. Prix rigides et lents à réagir, chômage de masse, multiplicateurs budgétaires élevés et trappe à liquidité : tout cela n’existait pas, par hypothèse, dans les modèles qui prévalaient depuis environ deux décennies lorsque la Grande Crise financière s’est déclenchée. Xavier Ragot (OFCE et PSE) décrit les leçons tirées du cuisant échec de ces modèles. La plus récente famille de modèles d’équilibre général dynamique rend compte de façon plus réaliste du fonctionnement des marchés des biens et du travail, renouant en quelque sorte avec les théories keynésiennes classiques relatives à la sous-consommation ou au paradoxe de l’épargne. Plus intéressant encore, elle s’appuie également sur la théorie des équilibres à prix fixes oubliée depuis la fin des années 1970. Ces réflexions contribuent à une nouvelle compréhension du fonctionnement de la demande effective (globale), empiriquement fondée, et attirent à nouveau l’attention sur la pertinence des décisions d’épargne et d’investissement des agents privés. Dans un environnement caractérisé par une profonde récession – un important écart de production –, le canal de la demande prévaut. Le retour de cette perspective keynésienne ne découle pas de précédents politiques, mais est le fruit d’une évaluation empirique rigoureuse.
Depuis le milieu des années 2000, un écart croissant s’est creusé entre épargne privée et dépenses d’investissement des entreprises. Selon Patrick Artus (Natixis et Paris I), ce déséquilibre entre offre et demande de capitaux ne peut pas être résorbé par une hausse du niveau général des prix, dans la mesure où les taux nominaux – les taux directeurs – ont atteint leur borne inférieure (à zéro). (Les taux réels ne sont alors plus à même d’exercer leur effet équilibrant.) Ces évolutions sont le fruit de trois facteurs fondamentaux : en premier lieu, le vieillissement démographique engendre simultanément un accroissement de l’épargne désirée et une certaine désindustrialisation, ou en tout cas un déplacement de la demande vers des services moins intensifs en capital ; ensuite, les politiques économiques qui auraient dû fonctionner dans un tel contexte deviennent contre-productives – une hausse de l’épargne publique, par exemple, engendre des pressions déflationnistes en réduisant davantage la demande agrégée et la même chose vaut, paradoxalement, pour les politiques améliorant la productivité ; enfin, un environnement de taux d’intérêt nuls qui incite les investisseurs à placer leur épargne sur des actifs de court terme et très liquides de préférence les obligations à long terme compliquant la vie des intermédiaires financiers. Étant donné la préférence des ménages pour les dépôts bancaires, les banques deviennent les principaux financeurs des émetteurs souverains. Or avec les taux (et des écarts de taux) bas, leurs marges diminuent inexorablement. Le défi est particulièrement grand pour les compagnies d’assurance-vie.
Jézabel Couppey-Soubeyran (CES, Paris I et Cepii) part du constat que les taux nominaux négatifs constituent un phénomène surprenant et inhabituel – conséquence de politiques monétaires extrêmement accommodantes, elles-mêmes poursuivies en réponse à un environnement économique très morose et vulnérable. Le recours à des taux négatifs a été justifié par le besoin d’instruments additionnels, en complément de la panoplie, déjà très fournie, des instruments non conventionnels (notamment le quantitative easing, le credit easing et le guidage prospectif). Dans le cas de la zone euro, tous ces instruments visent en premier lieu à stimuler l’offre de crédit. (La politique monétaire de la BCE a souvent été présentée comme une politique de soutien au crédit « renforcée ».) Pourtant, étant donné la corrélation forte entre les taux nominaux négatifs et l’inflation (ou plutôt la déflation), distinguer le symptôme de la cause est particulièrement malaisé. Alors que les taux directeurs ont un impact sur les coûts de financement des banques et, de manière moins directe, sur le coût du crédit (pour les ménages et les entreprises), son incidence sur les dépenses d’investissement est, dans le meilleur des cas, ténue. Ce qui compte, en revanche, c’est la productivité marginale du capital, c’est-à-dire les taux de rendement réels. Si les taux sont supérieurs au taux naturel wicksellien, une instabilité cumulative – une spirale déflationniste – est susceptible de s’enclencher. Or ce taux naturel a suivi une trajectoire décroissante depuis une quinzaine d’années. Ce constat est en cohérence avec l’hypothèse de « stagnation séculaire » émise par Larry Summers et quelques autres (cf. la contribution de Richard N. Cooper dans ce numéro). Dans cette optique, les taux négatifs pratiqués par la banque centrale ont au moins le mérite d’empêcher la mise en route de la dynamique déflationniste. Mais il semble que la politique monétaire commence à être à court de munitions, dans la mesure où les taux négatifs ne peuvent baisser sans fin. Cela amène à formuler des préconisations encore moins conventionnelles – rêvons un peu : un soutien direct à la consommation des ménages sous forme de création monétaire (la « monnaie-hélicoptère » de Milton Friedman) ou des projets d’infrastructures publiques au financement garanti par la banque centrale.
Taux d’intérêt bas et intermédiation financière
Les politiques monétaires non conventionnelles ont, selon Christian Thimann (Axa et PSE), des effets atypiques principalement pour trois raisons : (1) elles ont une forte influence sur les marchés des capitaux à long terme, (2) elles entraînent une réaffectation des actifs sûrs (du secteur privé vers les banques centrales) et (3) ce sont des opérations fermes potentiellement difficiles à inverser (contrairement aux opérations de prise en pension qui étaient habituellement mises en place par la BCE pour fournir de la liquidité avant la crise). (En outre, au vu des volumes et de la durée des engagements, ces effets seront bel et bien durables, leur demi-vie s’étendant jusqu’au milieu des années 2020, soit pour la France l’équivalent de deux cycles électoraux à compter d’aujourd’hui.) Cette différence fondamentale pourrait avoir d’importantes conséquences. La fourniture d’une garantie de retour sur investissement (préservation du capital au minimum), exigée par les ménages privés et proposée en particulier par les compagnies d’assurance-vie, pourrait devenir impossible. Les objectifs d’épargne à long terme des ménages privés, en vue d’accéder à certains services en particulier (santé, logement), deviennent inatteignables, en raison des divergences sectorielles d’inflation (évolution des prix relatifs). Un problème évident d’affectation se pose également : trop d’épargne est consacrée au logement plutôt qu’à des investissements plus productifs.
Le contexte persistant de bas taux d’intérêt, conjugué aux efforts réglementaires visant à assurer la stabilité financière après la crise (Bâle III, CRR/CRD IV, Union bancaire, etc.), a eu un fort impact sur l’intermédiation financière. Et cet impact avait un caractère différencié, portant principalement sur des aspects, identifiés comme problématiques, du secteur bancaire. Sur la base d’une analyse des flux financiers, Günter W. Beck (SAFE Policy Center, université Goethe de Francfort ; université de Siegen) et Hans-Helmut Kotz (SAFE Policy Center, université Goethe de Francfort ; Center for European Studies, université d’Harvard) illustrent les conséquences que ce changement structurel pourrait avoir sur les objectifs de la politique monétaire. Les données montrent que les activités des banques non-banques revêtent une importance croissante. En tant que substituts fonctionnels, ces institutions exercent des fonctions d’intermédiation en grande partie similaires entre les épargnants finals et les investisseurs finals. Elles se concentrent toutefois souvent uniquement sur certaines parties de la chaîne de valeur bancaire traditionnelle. Elles bénéficient ainsi d’économies d’échelle et d’avantages liés à la spécialisation. Par conséquent, du point de vue des investisseurs (institutionnels), elles sont devenues comparativement plus attractives, notamment en raison du moindre coût de leurs services dû aux différences des contraintes réglementaires. Cette nouvelle structure du système financier pourrait avoir plusieurs conséquences. Évidemment, elle a une influence sur la transmission des impulsions de la politique monétaire, modifiant l’effet « caisse de résonance » des banques centrales, c’est-à-dire le mécanisme de transmission monétaire. Cette structure peut également entraîner des conséquences systémiques en termes d’augmentation de l’exposition générale au risque, avec un levier d’endettement insuffisamment couvert. Pour comprendre et évaluer cette évolution, l’analyse des flux financiers, qui avait été laissée de côté, a été récemment redécouverte. Cette façon de lire et d’interpréter les données permet d’avoir un point de vue cohérent (effet tautologique de la comptabilité en partie double) et très complet. L’ensemble des données les plus récentes sur les flux financiers entre les différents secteurs (agents représentatifs) ainsi qu’entre les secteurs financier et non financier (ou réel) de nos économies permet de tirer plusieurs conclusions intéressantes. Il faut notamment noter que durant ces derniers trimestres, l’évaluation des risques de bilan (à partir des créances conditionnelles) montre une augmentation des risques sectoriels dans le secteur des banques non-banques. On peut également remarquer le rôle distinct des différentes institutions face aux mesures de politique monétaire. Les banques non-banques compensent, au moins en partie, le comportement des banques face aux impulsions de la politique monétaire.
Le grand large : le contexte international
Sur les marchés financiers fortement intégrés, les taux d’intérêt très bas sont devenus un phénomène mondial, comme le démontrent Jhuvesh Sobrun et Philip Turner, tous deux de la BRI, en s’appuyant sur de nombreuses données et sous différents angles. La politique monétaire transmet ses impulsions en grande partie via la courbe des rendements, sur toute une gamme d’échéances. À partir de trois variables construites (non observables) – un taux directeur théorique (prenant en compte le volume des achats d’actifs non conventionnels), un taux naturel et une prime de terme –, l’accent est mis sur la différence entre (1) le taux des Federal funds des États-Unis, soit le prix de l’argent au jour le jour sur les marchés interbancaires aux États-Unis (court terme), et (2) le taux d’intérêt réel mondial (long terme), résultat endogène d’une combinaison de forces. Dans un régime de changes flexibles, la partie courte de la courbe des rendements est un paramètre politique largement déterminé par les banques centrales. Cependant, étant donné que les répercussions de la politique monétaire des États-Unis sur les variables nationales cibles sont souvent prises en compte, au moins implicitement, les Federal funds ont bel et bien une fonction de référence. Les taux d’intérêt réels à long terme, sous l’effet de l’arbitrage, sont sur la même longueur d’onde, très proches les uns des autres. C’est pour cela que Mervyn King et David Low soutiennent la pertinence de l’utilisation du concept – artificiel – d’un taux d’intérêt réel mondial. Si les rendements sur les bons du Trésor des États-Unis (à dix ans) ont un impact déterminant sur ce taux artificiel, plusieurs autres facteurs entrent en ligne de compte. On constate notamment une tendance à la baisse persistante (c’est-à-dire structurelle) au niveau des taux directeurs ainsi que du taux d’intérêt mondial à long terme (voir également Levy-Garboua et Monnet à ce sujet dans ce numéro). Cela indique l’existence d’un facteur mondial commun jouant le rôle d’élément moteur. Les taux naturels, quelle que soit leur nature, ont enregistré une tendance à la baisse, s’approchant de la borne zéro. De la même façon, les taux d’intérêt réels mondiaux – reflétant possiblement un excès d’épargne ou une pénurie d’actifs sûrs – sont en baisse depuis au moins quinze ans. Il est intéressant de noter que la prime (compensation) liée aux engagements sur le marché des capitaux à long terme s’est considérablement réduite. Cela pourrait être la conséquence (attendue) des achats d’actifs à grande échelle par les banques centrales et de l’effet de portefeuille en résultant. La forte volatilité des taux à long terme, faisant augmenter le coût des opérations de carry trade, pourrait avoir été un autre facteur déterminant. Ce sont les forces structurelles profondes qui ont le plus fort impact sur les taux réels à long terme. Et ces taux réagissent essentiellement à l’évolution de la situation mondiale et non à l’évolution de la situation de chaque économie. Cela est également valable pour les rendements réels sur les bons du Trésor des États-Unis qui réagissent à l’écart de production mondial, mais pas à l’écart de production « local » des États-Unis. En parallèle, les corrélations entre les pays se sont renforcées au fil du temps, quoique différemment. Le mouvement concomitant avec les marchés émergents a été nettement plus volatil, reflétant probablement la pénurie de liquidité (en termes de volumes et d’écarts acheteur/vendeur) sur ces marchés. En même temps, la prime de terme aux États-Unis a un impact encore plus fort sur les taux à long terme des autres marchés, plus important que l’évolution attendue des taux d’intérêt à court terme. Cela signifie également que la « nouvelle normalité » pour les taux d’intérêt est plus basse que par le passé.
Les crises financières sont une triste constante, comme le montre Jeffry Frieden (université d’Harvard) sur les vingt-cinq dernières années (c’était déjà le cas auparavant, à en croire la remarque de Charles Kindleberger évoquant leur « éternel recommencement »). Nos crises, celles de notre génération, pourraient bien trouver leur origine dans les conditions macroéconomiques qui prévalent depuis le début des années 1990, les principales caractéristiques étant (1) la forte intégration des marchés financiers (due à des flux de capitaux très importants), (2) la variabilité sensiblement réduite des variables macroéconomiques cibles (Grande Modération) et (3) la réponse de la politique monétaire face à la Grande Récession, à savoir la baisse radicale des taux directeurs vers la borne zéro et la forte expansion du bilan des banques centrales (ainsi que, via l’assouplissement du crédit, la modification de la structure du risque des actifs et des garanties acceptés). Les taux zéro ont favorisé la quête de rendement, attirant les fonds vers les marchés émergents. Les capitaux ont circulé depuis les économies avec un excédent de la balance des paiements à faible croissance vers des économies en déficit à forte croissance. L’emprunt a permis de financer la consommation par le déficit ou le boom des actifs, qui a fini par se transformer en crise. Les capitaux partaient dans la mauvaise direction, du moins peut-on l’affirmer a posteriori. Comme ce fut le cas dans l’entre-deux-guerres (et à de nombreuses autres reprises), face aux perspectives moroses, les flux de capitaux ont soudainement stoppé, causant de nombreux dégâts. La répartition du fardeau de l’ajustement qui en a découlé soulève bien entendu un débat. Les crises financières ont des effets durables et extrêmement préjudiciables, et elles posent des défis politiques. Comment gérer les cycles de flux de capitaux et leur impact sur les taux de change (engendrant des mésalignements) face à des intérêts contradictoires ? Comment construire un système financier international qui prenne en compte les effets de contagion et les retombées transfrontalières ? En d’autres termes, comment résoudre les déséquilibres mondiaux qui engendrent des coûts substantiels, si rien n’est fait ?
En guise de conclusion, quelques pistes de réflexion
Les taux d’intérêt (nominaux) très faibles, voire négatifs, font désormais partie de la boîte à outils des banques centrales. Ils s’ajoutent à tout un éventail d’instruments non conventionnels (assouplissement quantitatif et du crédit, soutien renforcé du crédit, orientation prospective, etc.). Au vu des perspectives potentiellement médiocres à moyen terme – stagnation séculaire ? –, certains de ces instruments pourraient devenir une caractéristique standard de la mise en œuvre des politiques. En outre, étant donné que l’objectif de stabilité financière a regagné en importance, les bilans des banques centrales, dont la taille a fortement augmenté, ont désormais une fonction de stabilisation.
Les taux d’intérêt bas sont devenus un phénomène mondial. Ils sont essentiellement endogènes, reflétant les attentes quant à l’évolution de la production à moyen terme (Brynjolfsson et McAfee, 2014 ; Gordon, 2016). Et l’économie mondiale fait face à des défis structurels (démographie, numérisation), des changements radicaux. Dans ce contexte, l’incertitude est forte et grandissante. Les banques centrales pourraient bien ne pas avoir les moyens d’y faire face (King, 2016).