Do not follow this hidden link or you will be blocked from this website !

 Introduction


Hans-Helmut KOTZ * Resident Fellow, Center for European Studies, Harvard University, Cambridge, MA ; Senior Fellow, Leibniz Institute for Financial Research SAFE, Francfort, Allemagne. Contact : kotz@fas.harvard.edu.
Gilles VAYSSET Comité de rédaction, Revue d’économie financière.

La régulation des activités financières – ainsi que sa nécessaire coordination internationale – visait à l’origine à garantir la sécurité et la solidité des grandes banques, celles exerçant une importante activité transfrontière. Elle revêtait donc surtout une dimension institutionnelle (par opposition à fonctionnelle). À cet égard, nous avons bien évidemment à l’esprit le dispositif de Bâle I ainsi que sa version perfectionnée, longtemps en gestation, Bâle II. La crise financière de l’Atlantique nord1, sa genèse, sa propagation et enfin son amplification jusqu’à prendre une dimension systémique ont clairement montré que le risque réside, en fin de compte, dans les fonctions, quel que soit le dispositif institutionnel dans lequel elles s’opèrent. Les risques inhérents à la transformation d’échéances constituent une caractéristique aussi bien des véhicules d’investissement structurés que des banques classiques. L’ingénierie financière permet de créer très facilement un effet de levier au sein des banques et, (peut-être) encore plus facilement, hors de leur périmètre. Tout naturellement, de telles constructions génèrent potentiellement le même degré d’externalités – et de risque systémique – que les banques classiques. Définies de façon appropriée, par la négative, comme des non-banques dans une perspective institutionnelle, en termes d’effets ou de résultats possibles, elles sont néanmoins de même nature que les banques. Par conséquent, un corollaire simple s’impose : des instruments identiques devraient recevoir le même traitement, à défaut de quoi s’instaure une forte incitation à contourner les règles. Dans un environnement concurrentiel, cette incitation au contournement apparaît d’autant plus impérieuse qu’elle offre l’illusion que l’on ne joue pas contre son propre intérêt (à court terme, tout du moins). La tentation d’opérer des arbitrages réglementaires devient irrésistible. Ce corollaire, qui reçoit désormais quelques appuis publics, revendique bien entendu ses quartiers de noblesse. C’est le cheval de bataille de Robert Merton qui milite depuis près d’un quart de siècle en faveur de l’adoption d’une perspective fonctionnelle, mais non institutionnelle (concept qu’il a d’ailleurs emprunté aux travaux réalisés dans les années 1950 par son père, le sociologue Robert K. Merton). Par conséquent, des institutions situées hors du périmètre des banques ont été incluses dans le champ d’application de la dernière mouture du dispositif de Bâle, la version III, et à juste titre.

Cette question du périmètre d’application de la réglementation est donc de première importance. Or Pierre-Henri Cassou fait le constat que si les initiatives en matière de régulation ont surtout concerné les méthodes et les moyens, les réflexions globales sur l’étendue de leur application sont encore insuffisantes. Ainsi, ces périmètres devraient-ils être alignés entre pays de l’Union européenne et au-delà avec les États-Unis. Des champs d’application imprécis ou variables d’une zone géographique à l’autre ouvrent en effet naturellement la voie au développement du shadow banking ou à l’exposition au risque des SIFI (systemically important financial institutions). Pour éviter ces écueils, il plaide pour une extension des champs d’application de la régulation de manière à y soumettre un ensemble assez large d’activités.

Cela conduit bien entendu à procéder à un réexamen approfondi d’un certain nombre d’institutions et d’infrastructures financières non bancaires.

Jusqu’à la crise récente, les sociétés d’assurances (et de réassurances), qui, en raison de la vulnérabilité nettement moindre du passif de leurs bilans, étaient moins exposées aux mouvements de panique, n’étaient pas considérées comme des sources probables de risque systémique. Qui plus est, comme il leur était possible d’adopter un comportement d’investisseur patient et axé sur le long terme, elles étaient considérées comme des institutions fondamentalement stabilisatrices. Cette vision des choses a été modifiée, comme le souligne Philippe Trainar, par le cas d’AIG (American International Group) et des assureurs monolines. En partant d’une définition précise de la notion de risque systémique, il a cherché à établir si les assureurs, en tant que tels, ont une tendance à générer des problèmes systémiques. Comme ils ne sont pas exposés au risque de liquidité, n’ont pas recours à l’effet de levier et conservent au bilan la plupart de leurs activités, ils ont beaucoup moins tendance à créer des perturbations systémiques. Il n’y a pas d’« assuranceroute » possible, la banca rotta résultant de retraits massifs. Toutefois, bien évidemment, ils ne sont pas au-dessus de la mêlée et peuvent se retrouver à l’extrémité de la chaîne de contagion. Par conséquent, pour des raisons de taille, d’interconnexion ainsi que de substituabilité fonctionnelle, la défaillance d’une grande société d’assurances pourrait faire des ravages en matière de stabilité financière.

Alors que dans des circonstances normales, il n’y a pas lieu de s’en préoccuper, l’opacité, qui accroît l’incertitude et réduit la liquidité, devient hautement problématique en période de crise. Tel est le point de départ de l’intervention de Daniela Russo et Gertrude Tumpel-Gugerell sur l’importance croissante prise par les contreparties centrales. Cette évolution atténue les turbulences susceptibles de provenir des marchés des produits dérivés OTC (over-the-counter), mais elle accentue l’importance systémique de ces plates-formes. Cela soulève un certain nombre de questions de stabilité financière qui sont étroitement liées aux fonctions de banque centrale. L’introduction d’une contrepartie centrale sur les marchés OTC soulève également un certain nombre de questions théoriques sur lesquelles se penchent Valère Fourel et Julien Idier. Ils analysent sous cet angle les avantages et les inconvénients de l’instauration d’une chambre de compensation en termes de gestion des risques de contrepartie, de transparence et de liquidité et appliquent leur grille d’analyse à la compensation centralisée des CDS (credit default swaps) pour conclure à son intérêt, sans qu’elle fasse pour autant disparaître toutes les difficultés.

En ce qui concerne les agences de notation, comme l’illustre de façon concise Norbert Gaillard, le problème est pratiquement récurrent : en fait, depuis la crise asiatique, ces institutions sont au banc des accusés. Dans sa contribution, cet auteur met en lumière l’importance des notations dans la régulation publique, en particulier dans Bâle II. Après avoir évoqué la structure particulière de ce secteur (qui, pour des raisons systémiques, ne prend pas en compte un grand nombre de fournisseurs de services concurrents), il souligne les conflits d’intérêts multidimensionnels et plaide en faveur de la mise en place d’une réglementation efficace. En conclusion, il insiste sur la nécessité de réinternaliser en partie la fonction de sentinelle (gatekeeper).

Cette fois, la crise est venue des produits structurés et de la fragilité de passifs. Tout en faisant partie des suspects habituels, les hedge funds, comme on l’a fréquemment remarqué, n’étaient pas directement coupables. Toutefois, méritent-ils pour autant d'être systématiquement absous ? Sabrina Khanniche démontre, pour sa part, que ces entités peuvent constituer à la fois une source et un vecteur de propagation du risque systémique. En particulier, dans un environnement atypique ou en période de crise, leurs stratégies sont susceptibles d’amplifier les perturbations. En règle générale, chaque fois qu’un système atteint les percentiles les plus élevés d’une distribution de profits et de pertes, il s’ensuit une forte augmentation des corrélations. Les effets de diversification disparaissent et ces fonds deviennent des mécanismes de transmission du risque systémique. Ils génèrent et propagent les problèmes de façon contagieuse.

Pouvoir procéder à une meilleure évaluation des risques et des réglementations est apparu comme une nécessité absolue après la débâcle du système financier. La crise a mis en évidence les lacunes des outils de gestion et d’évaluation du risque dans les institutions financières. Cela a conduit à un renforcement généralisé des procédures de contrôles internes. Pour autant, Christian Walter souligne que l’on ne peut pas faire l’économie d’une réflexion approfondie sur le façonnage des activités financières par les outils techniques et mentaux, la performation du système financier, qui a un impact direct sur l’organisation, les habitudes de pensée des acteurs et des institutions. Il importe de la prendre en compte pour éviter de futures crises.

Après des efforts initiaux en vue de la contenir, la crise a donné lieu à une réévaluation généralisée de la réglementation bancaire en vigueur, comme le souligne Danièle Nouy dans son article. Elle explique pourquoi et en quoi cette réévaluation vise la quantité autant que la qualité des fonds propres (à proprement parler, la capacité d’auto-assurance), une amélioration de la prise en compte du risque, notamment sur le portefeuille de négociation, la question de la liquidité largement négligée jusque-là (risque lié au renouvellement à l’échéance ou de transformation) grâce à la mise en place d’un ratio de liquidité à court terme ainsi que d’un ratio de stabilité à long terme, auxquels s’ajoute un ratio de levier maximum qui constitue une contrainte complémentaire additionnelle, et, en dernier lieu, la reconnaissance (enfin officielle) de la procyclicité de Bâle II. En outre, l’auteur met l’accent sur un certain nombre de questions et de problèmes non résolus, comme ceux des établissements trop importants pour faire faillite (too big to fail) ou du traitement des hedge funds. Pour finir, il souligne qu’il ne s’agit pas seulement de concevoir des règles, mais que la détermination dans la mise en œuvre, à savoir un contrôle sur place, est primordiale.

Les banques sont des institutions regroupant des activités financières qui, lorsqu’elles sont menées concurremment, dans le cadre d’un bilan bancaire unique, permettent la prestation efficace de services. Ce sont les prémisses sur lesquelles repose l’article de Michel Dietsch et Joël Petey. L’argument des produits connexes ou complémentaires, que ces auteurs défendent, implique un arbitrage délicat entre la limitation des coûts d’opportunité de la faillite de banques d’importance systémique et l’éventuelle diminution substantielle de l’offre de services de crédit et de liquidité. S’ils reconnaissent qu’il y a eu dépendance excessive, dans l’ensemble, envers les marchés ou les activités interbancaires (des acquisitions de dépôts, en quelque sorte), ils soulignent aussi les conséquences d’un durcissement des exigences en fonds propres et en liquidité pour le rôle de transformation (ou d’intermédiation) des banques. Leur argument selon lequel les nouvelles exigences de liquidité de Bâle III pourraient se traduire par un (nouvel) encadrement du crédit est particulièrement intéressant. Ils démontrent également de manière convaincante que selon le périmètre de la régulation, cela a des conséquences sur l’attractivité relative des activités bancaires parallèles.

La probabilité d’un blocage total du marché monétaire et donc celle d’une illiquidité généralisée du système bancaire font, sans l’ombre d’un doute, partie des risques qui étaient mal appréciés. Il est apparu au second semestre 2008 que seules des interventions massives et discrétionnaires des banques centrales ont pu permettre l’alimentation des banques en liquidités grâce à l’acquisition de créances dont la qualité est sujette à caution. Revenant sur cet épisode et en tirant les leçons, Dominique Hoenn préconise que les acteurs du système bancaire, dont la banque centrale, définissent précisément, le moment venu, les catégories d’actifs éligibles au refinancement en cas de crise en tenant compte de la diversité des activités des différents établissements et de la microstructure ou de la spécificité de leurs marchés bancaires. Ce traitement de gestion de la crise aurait en outre pour vertu, selon cet auteur, de permettre un financement sain de l’économie.

Tout comme Monsieur Jourdain faisait de la prose, une certaine forme de stratégie macroprudentielle a été suivie depuis toujours. Partant d’une définition claire de ce que recouvre le terme macroprudentiel, Claudio Borio défend néanmoins avec force la nécessité de rendre ce concept opérationnel, faute de quoi, même si nous avons confié cette fonction à des institutions, le risque systémique va se développer de manière incontrôlée, avec tous les coûts d’opportunité que cela peut comporter pour la société. L’objectif immédiat des politiques macroprudentielles est, assez naturellement, d’éviter les crises financières et leur cortège de conséquences dommageables pour l’allocation de capital et le contrôle du risque. La création de volants de sécurité, les marges d’erreur, tout comme l’instauration de limitations de vitesse constituent une approche logique. Toutefois, l’efficacité de ces outils, ainsi que le montre cet auteur, est loin d'être prouvée. Surtout, afin que la notion de risque pour la stabilité macrofinancière puisse être mieux contrôlée, il faut que ce risque soit mesuré et que soient définis à cet effet des indicateurs en les inscrivant dans une dimension temporelle (la durée du risque) et dans une dimension transversale (selon les institutions et les instruments). La mise en œuvre pratique, comme toujours, ne peut donc pas être entièrement fondée sur des règles. Cette marge d’autonomie inévitable soulève avec encore plus d’acuité la question (pluridimensionnelle) de la mesure du risque. Enfin, un nombre significatif de questions ouvertes sont soulevées, dont les plus importantes, du point de vue stratégique, sont l’approche analytique et l’efficacité des outils devant être déployés.

Cette fonction de supervision macroprudentielle ne peut être menée à bien que dans un cadre institutionnel approprié, comme Mauro Grande le soutient de façon convaincante. Alors que l’« élément macro » a été reconnu, de façon plutôt extensive, au cours des deux dernières décennies, il a fallu une crise radicale pour qu’il devienne opérationnel. La mise en œuvre dans ce cas implique de prendre toute la mesure des effets systémiques qui ne s’arrêtent pas aux frontières nationales. Pour cette raison, la création du Comité européen du risque systémique (CERS), très étroitement inspiré d’un projet très pragmatique (c’est-à-dire applicable) de Jacques de Larosière, est une étape importante dans la gestion de la dimension macro. Même s’il n’est question assurément que d’un élément au sein d’un vaste ensemble d’initiatives, il est décisif surtout parce qu’il souligne la nécessité fonctionnelle d’une forte implication de la banque centrale pour s’acquitter de la fonction de stabilité macrofinancière pour l’Europe ; il s’agit de la BCE ainsi que des banques centrales nationales, certaines d’entre elles assumant également un rôle de surveillance microprudentielle.

Les banques centrales, seuls fournisseurs de monnaie exogène, occupent nécessairement un rôle pivot en ce qui concerne la stabilité financière, comme Michel Aglietta le soutient dans sa contribution. Au cours des trois dernières décennies, les chaînes de valeurs des banques ont été déconstruites. La valorisation du risque de crédit notamment est devenue de façon toujours croissante l’apanage des marchés, étant déléguée à des dispositifs de filtrage et de suivi. Cette désintermédiation supposait la complétude des marchés (la possibilité toujours plus grande de réaliser des échanges dans tous les États du monde, quel que soit le degré d’incertitude) et a généralement été considérée comme une source d’amélioration pour le bien de tous. Elle a également signifié que les banques centrales pouvaient et devaient se résigner à la mission d’assurer la stabilité des prix, garantissant ainsi simultanément la stabilité financière. Sous l’influence croissance d’une finance reposant sur la collatéralisation qualifiée, à juste titre, d’activité bancaire parallèle, les marchés financiers sont néanmoins devenus vulnérables à des crises autoréférentielles. Et la dimension macroprudentielle a fait un retour en force. Michel Aglietta en tire une conclusion forte : le périmètre du macroprudentiel doit être élargi à l’ensemble des institutions d’importance systémique, dont les hedge funds, les fonds de capital-investissement ainsi que les produits structurés qui remplissent les mêmes fonctions. Il souligne notamment le risque de financement ou risque lié au renouvellement à l’échéance, la pertinence des conventions comptables (le paradoxe d’une valorisation aux prix du marché en situation d’illiquidité), soulignant les complémentarités entre politiques microprudentielles et macroprudentielles.

L’accélération de la globalisation au cours des deux dernières décennies a touché la plupart des activités des économies, y compris l’activité bancaire, avec le développement sans cesse plus important de grandes banques globales transfrontalières. La crise a mis en évidence les effets d’extension géographique des difficultés de tels établissements au-delà de leurs frontières d’origine et, par conséquent, les fortes probabilités d’accroître le risque systémique. La résolution des défaillances d’établissements transfrontaliers est le thème abordé par Nadège Jassaud et Ceyla Pazarbasioglu. En raison de la complexité du sujet et de son caractère novateur, il leur semble préférable que soit adoptée une approche pragmatique plutôt que d’attendre la conclusion d’un accord international qui ne saurait être trouvé rapidement. L’idée serait d’aller en marchant en établissant d’abord un cadre auquel pourraient adhérer un nombre limité de pays qui en rempliraient les conditions et de l’étendre progressivement sur une base volontaire et coopérative à un nombre croissant de pays.

Une résolution ordonnée des défaillances bancaires devrait ou doit être une alternative, sinon le renflouement, avec tout ce qu’il comporte d’effets incitatifs pernicieux, devient inévitable. Dans leur contribution, se fondant sur leur rapport remis au ministère de l’Économie, des Finances et de l’Industrie, Thierry Dissaux et Jean-François Lepetit analysent de façon concise l’éventail des mesures de prévention ainsi que les dispositifs de résolution des crises tels qu’ils ont été envisagés par différentes instances internationales, à commencer par le Conseil de stabilité financière (CSF). La solution qu’ils privilégient, afin d’éviter une contribution forcée du contribuable, consiste à convertir, dans l’hypothèse d’une crise et tout en maintenant la viabilité des banques, une dette junior en un instrument capable d’absorber des pertes. Mais ils soulignent également que le modus operandi est primordial si l’on veut éviter des conséquences dommageables pour les marchés de la dette senior. La principale mesure qu’ils préconisent est une réduction de dette (bail in) institutionnalisée ou contractuelle accompagnée d’un pouvoir discrétionnaire aux mains du régulateur. En outre, ils proposent des instruments complémentaires qui permettraient une résolution moins coûteuse : banques en charge de la restructuration ou banque-relais (bridge banks), testaments bancaires… En conclusion, ils précisent qu’il doit être tenu compte de l’incidence agrégée de l’ensemble des mesures envisagées, ainsi que de la nécessité de considérer les conséquences en termes d’attractivité du système bancaire de l’ombre (shadow banking system).

La taille a de l’importance, de même que l’interconnexion ou le comportement grégaire. Cela étant, la taille permet des économies d’échelle et de gamme. Quant à l’interconnexion, elle pourrait être l’aboutissement inexorable d’une industrie financière spécialisée de manière efficiente. C’est là l’hypothèse de départ de Sebastian C. Moenninghoff et d’Axel Wieandt. Dans leur contribution, ils détaillent avec concision l’apparition du concept de too big to fail (TBTF) et le raisonnement qui le sous-tend avant d’en relever la conséquence la plus dommageable, à savoir que ce concept conduit à un résultat asymétrique qui incite les opérateurs jouant principalement à la hausse à prendre des risques plus élevés. Cela s’accompagne d’un effet agrégé ou sociétal. Après une analyse de la question TBTF au cours de la crise actuelle, faisant notamment référence au cas de la banque Hypo Real Estate, ces auteurs concluent que compte tenu des avantages propres aux grandes institutions diversifiées (et potentiellement facteurs de stabilité), le CSF et le processus de Bâle sont fondamentalement sur la bonne voie : un relèvement des exigences en fonds propres, l’instauration de mesures de résolution opérationnelles, mais surtout, leur mise en œuvre énergique sont nécessaires pour faire de ces TBTF des TBDF (too big for disorderly failure). Néanmoins, des questions ouvertes attendent encore une réponse : des restrictions à certaines activités ou des taxes pigouviennes, qui peuvent avoir des conséquences involontaires.

Ce deuxième volume sur le risque systémique de la Revue d’économie financière (REF) termine le panorama de la façon dont les régulateurs et les opérateurs de marché s’attaquent à ce problème. Nous avons, sans aucun doute, réalisé de grandes avancées par rapport à la situation antérieure à la crise. Si les mesures sont appliquées comme elles ont été conçues, le système devrait devenir plus résilient. Tout cela est-il suffisant ? À la lecture des articles des deux numéros de la REF, le doute ne peut être écarté. Dans tous les cas, on verra l’hydre des crises financières redresser la tête. Mais nous voulons gager qu’elle sera moins maléfique.


Notes

1 Le choix de cette expression, proposée très tôt par William Buiter, est une façon adroite de traiter de la crise financière récente et, par voie de conséquence, de la crise de la sphère réelle par référence à ses origines géographiques.