Une petite ville située dans le nord-ouest de la Suisse, sur le bord du Rhin, a été un témoin clé de l'histoire de la réglementation bancaire internationale. C'est sous l'égide de la Banque des règlements internationaux (BRI)1 que le Comité de Bâle sur le contrôle bancaire réunit à Bâle, depuis sa création en 1974, de hauts représentants des autorités de surveillance bancaire et des banques centrales des principaux pays développés2. Ce Comité a été créé dans l'objectif de définir les modalités d'une coopération internationale pour renforcer le contrôle prudentiel et améliorer la surveillance des banques dans un contexte de mondialisation accélérée de l'intermédiation financière, ce qui avait généré des distorsions dans le fonctionnement du système financier. Construit comme un forum d'échanges des autorités compétentes nationales, il s'est focalisé à l'origine sur le partage des responsabilités concernant le contrôle de l'activité bancaire transfrontalière pour ensuite travailler sur le renforcement de la solvabilité des établissements et la définition d'exigences minimales en fonds propres.
Au cours de l'histoire, l'intensité de la réglementation et de la supervision coordonnée des institutions bancaires a été adaptée en réponse aux nombreux chocs financiers et économiques qui ont suivi les épisodes de libéralisation financière3. Puisque l'accroissement des risques et la détérioration de la résilience des établissements n'étaient pas anodins, le contenu et l'architecture des textes réglementaires ont été soumis à des révisions répétées qui ont à la fois enrichi et complexifié l'accord initial. C'est néanmoins avec l'objectif de garantir un développement économique stable et socialement acceptable que les révisions des normes prudentielles et du contrôle des risques financiers ont été accomplies.
Dans cet article, nous nous intéressons dans un premier temps au contexte international particulier dans lequel le Comité de Bâle a vu le jour et retraçons les origines des coopérations qui ont abouti à l'adoption du premier accord sur les fonds propres. Nous montrons ensuite que la sensibilité aux risques, une notion clé au cœur même de la réglementation des fonds propres, a subi des mutations profondes au cours des dernières décennies. Le développement de nouveaux instruments a permis aux banques d'exploiter de plus en plus efficacement les écarts, parfois substantiels, entre la mesure réglementaire du risque, utilisée par le régulateur, et le profil de risque perçu « en interne » par les établissements. Comme nous allons le voir, cette pratique, connue sous l'appellation générique d'arbitrage réglementaire, a considérablement évolué au fil des années et érodé l'efficacité des normes de solvabilité.
Origines et contexte international
La création du Comité de Bâle
Alors que des échanges ont initialement eu lieu entre les grands pays développés, formant le Groupe des dix (G10, Allemagne, Belgique, Canada, États-Unis, France, Italie, Japon, Pays-Bas, Royaume-Uni et Suède), la Suisse et le Luxembourg ont également été invités à siéger au Comité de Bâle (dorénavant, le Comité) dû à leur spécificité d'usage du secret bancaire et leur présence internationale forte sur les marchés financiers et en particulier sur les marchés des changes. C'est ainsi que les réflexions des autorités centrales nationales représentées au Comité, accélérées avec le dépôt de bilan de la banque allemande Herstatt en juin 19744, se sont portées principalement sur l'expansion du marché des changes et les faillites des groupes bancaires transfrontaliers.
Les évolutions du cadre institutionnel européen et de l'environnement macroéconomique5 ont également nourri les réflexions des membres sur la conception des nouveaux standards réglementaires. À cela se sont ajoutées des crises dans les pays émergents et les défaillances d'emprunteurs aux États-Unis dans les années 1980 qui ont particulièrement touché les groupes bancaires actifs à l'international. Par ailleurs, la libéralisation financière et l'intensification des relations financières de l'Europe avec les États-Unis et le Japon, alors que les normes réglementaires en vigueur à ce moment-là continuaient à être définies et appliquées au niveau domestique, conduisirent inévitablement à des distorsions de compétitivité entre les groupes bancaires internationaux. En particulier, avec la crise de 1982 dans les pays de l'Amérique latine (Mexique, Argentine et Brésil), le capital disponible des banques américaines s'est révélé insuffisant. Mais la volonté du Congrès américain d'augmenter les ratios de capital et de renforcer la supervision des banques a vite été freinée par la crainte que de telles mesures unilatérales pénalisent les établissements domestiques vis-à-vis de leurs homologues internationaux. En effet, durant cette même période, les banques japonaises montaient en puissance et l'Europe continentale essayait d'établir un marché commun de services bancaires. C'est pourquoi les autorités américaines ont fortement insisté pour instaurer un terrain de jeu équitable (level the playing field) entre les grandes banques internationales.
Dans ses premières années d'existence, le Comité s'est inspiré du Groupe de Contact6 formé au niveau européen en 1972 et qui traitait les questions liées à l'activité bancaire transfrontalière au sein de la Communauté économique européenne (CEE) et particulièrement celle des faillites bancaires. Néanmoins, avec la création du Comité de Bâle, le Groupe de Contact a progressivement perdu en visibilité et en intérêt puisque l'objectif n'était pas de créer de doublon entre l'Europe et l'international, mais plutôt de transcrire au niveau européen les normes décidées à Bâle, où la plupart des membres du Groupe siégeaient également.
Afin de répondre à son objectif, celui de définir des normes réglementaires et de supervision, des compétences en contrôle bancaire et en réglementations étaient requises. Alors que dans plusieurs pays, à ce moment-là, les autorités de supervision étaient séparées des banques centrales (par exemple, en Belgique, au Canada, au Japon, en Suède, en Suisse et, dans une certaine mesure, en Allemagne, en France et aux États-Unis), le compromis trouvé a été d'imposer deux représentants par pays, un spécialiste en supervision et en réglementation, provenant de l'autorité de supervision, et un spécialiste en stabilité financière provenant de la banque centrale7. Ainsi, depuis sa création, le Comité répond au Comité des gouverneurs des banques centrales, qui se réunit tous les mois à la BRI. Ce sont les gouverneurs qui orientent les travaux du Comité8 et adoptent en dernière instance les textes les plus importants (par exemple, le Concordat de Bâle en 1975 ou les exigences en solvabilité en 1988).
Avec l'accord sur les exigences minimales en capital, le Comité est passé du rôle de simple conseiller du G10 au décideur de normes. Néanmoins, malgré le contenu substantiel de cet accord et aux recommandations fortes des gouverneurs des banques centrales quant à son application rigoureuse, les décisions prises par le Comité n'entraînent pas d'obligation juridique puisque celui-ci n'est pas une autorité supranationale et il n'est pas en mesure d'émettre de sanctions aux pays qui ne respectent pas ces normes. Cela explique pourquoi la mise en place des standards bâlois au niveau domestique a depuis toujours été très lente.
Les travaux du Comité de Bâle
Motivés par la faillite de la banque Herstatt et les événements qui l'ont suivi, les membres du Comité de Bâle9 ont traité, dès 1975, la question de la surveillance des groupes bancaires développant une activité à l'international, y compris de leurs succursales à l'étranger (BCBS, 1975). Regroupés dans le Concordat de Bâle, les principes définis visaient ainsi à combler l'écart entre une activité financière de plus en plus internationale et des normes réglementaires et de supervision domestiques. Les « Principes pour le contrôle des établissements des banques à l'étranger » (BCBS, 1983) introduisaient le concept de surveillance sur une base consolidée et insistaient sur l'importance de la coopération et du partage des responsabilités entre les autorités de tutelle nationales afin d'assurer une supervision plus efficace des groupes bancaires internationaux10. Enfin, la dernière révision, en 1990, apportait des précisions sur la mise en œuvre pratique de ces principes et définissait les modalités de coopération entre les autorités nationales compétentes.
Des travaux d'une grande envergure ont été menés pendant la première décennie d'activité du Comité sous la présidence de Peter Cooke et ont abouti à la publication, en 1988, d'un accord international sur les exigences minimales en capital (BCBS, 1988). Au cœur de cet accord dit de Bâle I, le ratio Cooke représente l'élément fondateur de la régulation bancaire en imposant que les risques pris du côté de l'actif soient couverts par un montant de fonds propres. Plus précisément, il visait à couvrir le risque traditionnel de l'activité bancaire, à savoir le risque de crédit et en particulier le risque de contrepartie. Les détails de cette norme seront présentés dans la partie suivante.
En définissant cette norme internationale, le Comité homogénéisait les règles domestiques sur les exigences en capital afin d'éviter les distorsions de concurrence sur le marché international. Il cherchait implicitement à imposer aux banques d'assumer les risques qu'elles prennent pour éviter qu'ils soient mis à la charge de la collectivité.
Le rôle du Comité se limite néanmoins à la définition des réglementations alors que le suivi de leur mise en œuvre est assuré par le FMI (Fonds monétaire international) et la Banque mondiale via des programmes d'évaluation spécifiques du secteur financier. Néanmoins la mise en place des accords bâlois n'a pas d'effet immédiat. Les différences législatives ont beaucoup ralenti le processus et finalement les standards Bâle I n'ont été implémentés qu'en 1997.
Changements de paradigme dans la mesure
des risques bancaires
Les standards de Bâle I représentent une étape incontestable aussi bien sur le plan institutionnel, car il a abouti à un accord international pour la première fois dans l'histoire de la régulation bancaire, que sur le plan technique par l'innovation des mesures imposées. Les travaux menés principalement sous la présidence de Peter Cooke visaient à améliorer la solvabilité des banques internationales en imposant des exigences en capital de minimum 8 % des risques engendrés par les encours de crédits accordés par une institution financière.
C'est particulièrement sur le concept de « risque » que le cadre de 1988 a apporté une véritable innovation et a ainsi instauré l'un des principes fondamentaux de la régulation bancaire, à savoir la pondération en risque. Le ratio de solvabilité prenait en compte la valeur des actifs pondérés des risques (risk-weighted assets, RWA), calculée comme la valeur nominale des actifs détenus dans le portefeuille multipliée par un facteur de risque d'autant plus élevé que l'actif détenu est risqué11.
Bien que très originale, au cours du temps, cette approche est rapidement apparue trop fruste. Comme nous allons le voir dans la partie suivante, l'évaluation du risque de contrepartie pour les expositions du portefeuille de crédit s'est avérée facile à contourner. Ainsi, exploiter les différences, entre le niveau réel de risque et le risque tel qu'il était évalué par les normes réglementaires, a conduit à une prise de risque excessive sans pour autant contrevenir à la régulation. En outre, certains aspects de l'activité bancaire étaient ignorés et en particulier le risque de marché. C'est pourquoi, au cours des années 1990, le Comité a élaboré un amendement du ratio Cooke pour prendre en compte le risque lié aux opérations de marché12 et pour introduire une nouvelle approche de calcul des fonds propres réglementaires sur ces risques, basée sur les modèles internes des établissements bancaires (BCBS, 1996). Appelée « approche par les notations internes », elle permettait une plus fine évaluation des risques par les banques elles-mêmes à travers l'utilisation des méthodologies de type value at risk (VaR). Alors que ces outils étaient initialement destinés à mesurer le risque de marché, leur utilisation a été ensuite élargie au risque de crédit. Il s'agit en effet d'une nouveauté méthodologique qui a changé profondément l'appréciation des risques bancaires et a accordé plus de liberté aux établissements pour évaluer les actifs pondérés des risques et le ratio de solvabilité prudentiel.
Une réforme plus profonde du cadre bâlois, initiée dans les années 1990 sous la direction de William McDonough, a abouti en 2004 aux nouveaux standards Bâle II (BCBS, 2004 ; BCBS, 2006). Ce cadre comportait une série de changements par rapport aux standards initiaux, à la fois sur les mesures de risque et sur l'architecture du cadre réglementaire. Premièrement, la mesure de risque de crédit basée sur un calcul forfaitaire selon la contrepartie pouvait se calculer dorénavant soit selon une méthode standard affinée, avec des pondérations de risques prédéfinies par le Comité et fondées sur les notations externes, soit en utilisant les systèmes de notation interne (internal rating based, IRB). L'utilisation de cette approche nécessite l'agrément préalable du superviseur et suppose que la banque calcule, sur la base de ses propres données, soit la probabilité de défaut des contreparties (PD) seulement (approche fondation), soit l'ensemble des paramètres (en plus de la PD, le taux de perte en cas de défaut (loss given default, LGD), l'exposition anticipée en cas de défaillance (exposure at default, EAD) et la maturité) pour déterminer le niveau d'exigences en fonds propres. La nouvelle approche standardisée permettait ainsi un regroupement par catégorie de risques, plutôt que par catégorie d'actifs comme c'était le cas sous Bâle I.
Deuxièmement, la conception de risques bancaires, limitée précédemment au risque de crédit, a été élargie au risque de marché lors de la première révision et au risque opérationnel sous Bâle II. Pour évaluer ces risques, les deux approches – méthode standard et/ou modèles internes – pouvaient être envisageables. Le calcul des RWA relatifs aux activités de marché est demeuré inchangé par rapport à l'amendement de 1996. Concernant les RWA au titre du risque opérationnel, le Comité a proposé aux banques trois méthodes de calcul de complexité croissante, allant de l'application d'un taux forfaitaire au produit net bancaire jusqu'à la modélisation des pertes historiques, le choix de cette dernière approche nécessitant une validation préalable des autorités de tutelle.
La libéralisation des comportements des banques, stimulée par l'opportunité d'évaluer elles-mêmes les risques détenus, a contraint le Comité à introduire des mesures de supervision supplémentaires, mieux adaptées à l'évolution des risques potentiels. Ainsi, une réorganisation du cadre réglementaire en trois piliers complémentaires a été introduite avec Bâle II :
le premier pilier a imposé les exigences minimales en fonds propres pour les trois risques mentionnés précédemment ;
quant au deuxième pilier, il a instauré un processus de supervision prudentielle qui venait renforcer le pouvoir du superviseur domestique. Ce dernier avait dorénavant le droit d'exiger des fonds propres au-delà du niveau minimal réglementaire si ses propres analyses des risques des établissements suggéraient un besoin supplémentaire de couverture ;
enfin, le pilier trois a sollicité une meilleure transparence financière de la part des établissements financiers, sur les fonds propres et sur les méthodes d'évaluation des risques, dans un objectif de discipline de marché.
Même si Bâle II a représenté une avancée, avec le temps, il a, lui aussi, montré des carences et de l'inertie puisqu'il n'a pas accompagné l'évolution de l'activité financière13. L'accumulation et la transformation des risques se sont développées grâce à l'innovation financière et aux changements de l'architecture des systèmes financiers (dérégulation, désintermédiation). Dans ce contexte, ses mesures et son implémentation n'ont pas été capables d'assurer la stabilité du système financier lors du choc financier intervenu à partir de 2007. En particulier, l'utilisation des méthodologies de type VaR dans le cadre de l'approche par notations internes s'est avérée inefficace. En outre, comme Bâle I, il s'est focalisé sur la solvabilité des établissements sans aborder le risque d'illiquidité. Ce dernier sera traité dans le cadre de la révision plus complexe engendrée à la suite de la crise des subprimes et qui a conduit au nouveau cadre dit de Bâle III.
Quant au numérateur du ratio de solvabilité bâlois, la réforme a été moins marquante lors du passage de Bâle I à Bâle II. En effet, outre le capital et les réserves formant les fonds propres de base (Tier 1), la définition des fonds propres prudentiels était large et incluait également des fonds propres complémentaires comme les emprunts subordonnés (Tier 2). Bâle II introduisait le concept de fonds propres « sur-complémentaires » (Tier 3) spécifiquement dédiés à la couverture du risque de marché. Tandis que le ratio Cooke imposait un niveau minimal des fonds propres de 8 % des actifs pondérés des risques au titre des activités de crédit, avec le ratio McDonough le niveau des exigences en capital restait inchangé, mais il devait également couvrir les risques de marché et opérationnel. Toutefois, le niveau des fonds propres de base (Tier 1) exigé était de seulement 4 %.
Arbitrage réglementaire :
quelques mutations inquiétantes
L'idée de permettre aux banques d'utiliser des modèles internes pour gérer leur solvabilité n'est pas nouvelle. Elle a été reconnue explicitement par les régulateurs à partir de janvier 1996, avec l'adoption de l'amendement au premier accord de Bâle sur les fonds propres pour son extension aux risques de marché. Les régulateurs ont réalisé progressivement qu'il serait trop compliqué et surtout arbitraire de concevoir un modèle standard, de type « passe-partout », d'évaluation des différents risques bancaires (de marché, de crédit, opérationnel, etc.). Mises à part les questions épineuses sous-jacentes à l'approche par les modèles internes, liées notamment à la procédure de validation a posteriori par le régulateur, la liberté accrue conférée aux banques dans la calibration de leurs modèles n'est pas sans danger. En particulier, les innovations et les techniques sophistiquées d'ingénierie financière ont commencé à être utilisées de plus en plus couramment par les grandes banques pour créer de nouveaux instruments leur permettant certes une meilleure gestion des risques, mais aussi une allocation plus « économique » de leurs fonds propres. C'est l'une des raisons par ailleurs pour lesquelles les risques sont devenus extrêmement compliqués à mesurer et à comprendre de l'extérieur de l'établissement bancaire. De surcroît, les incitations à manipuler l'information communiquée au superviseur et divulguée aux marchés et à sous-évaluer systématiquement les risques ne sont pas à écarter.
Le développement de ces nouveaux instruments a permis aux banques d'exploiter très efficacement les écarts, parfois substantiels, entre les mesures réglementaires du risque, imaginées par le régulateur, et le profil de risque perçu « en interne » par les établissements. Cette pratique, connue sous l'appellation générique d'arbitrage réglementaire, a considérablement érodé l'efficacité des règles de solvabilité prévues dans le premier accord de Bâle. Il convient de noter que ces comportements d'arbitrage réglementaire ne sont pas illégaux per se, mais vont tout de même à l'encontre de l'esprit de la régulation de la solvabilité bancaire et pourraient affaiblir, à terme, la solidité du système bancaire.
Les stratégies dites de cherry picking (ad litteram, « cueillette de cerises »14) constituent sans aucun doute l'une des plus anciennes techniques d'arbitrage réglementaire à l'œuvre sous le régime de solvabilité Bâle I. Ces stratégies consistent essentiellement à modifier la composition d'un portefeuille d'actifs pour privilégier, à l'intérieur d'une même classe de risque réglementaire, les actifs intrinsèquement plus risqués, qui rapportent plus en termes de rendement, mais qui laissent inchangée la mesure réglementaire RWA et, par conséquent, la charge minimale exigée de fonds propres. Dans le cadre d'une opération de titrisation, cela reviendrait à conserver les tranches les plus subordonnées (relativement plus risquées) et à vendre aux investisseurs les tranches seniors (peu risquées).
D'autres techniques d'arbitrage, liées d'une façon ou d'une autre à la titrisation des crédits ou d'autres créances, visent à exploiter plus subtilement les limites de la mesure réglementaire du risque de contrepartie caractérisant les actifs hors-bilan des banques. Ces actifs étaient bel et bien pris en compte dans le dénominateur RWA du ratio de solvabilité calculé sous Bâle I, mais de manière très imparfaite, de sorte que les opportunités d'arbitrage étaient nombreuses. Jones (2000) explique de manière très pédagogique les principales techniques d'arbitrage utilisées par les grandes banques, à savoir le rehaussement indirect de crédit lié aux positions de titrisation (par exemple, l'amortissement anticipé ou les clauses de remboursement accéléré), les opérations de titrisation synthétique ou encore les titrisations de type remote-origination15.
Le principal objectif de la réforme Bâle II, initiée en 1999, était de mieux aligner les mesures de risque internes des banques sur celles utilisées par les régulateurs afin de réduire l'étendue de l'arbitrage réglementaire. L'idée était de permettre aux banques éligibles, soumises à une procédure de validation préalable, d'utiliser leurs propres modèles internes pour estimer plus finement les paramètres de risque caractérisant les différentes expositions. En réponse à ces nouvelles règles, les banques ont adapté leur arsenal de techniques d'arbitrage, qui a ainsi subi des mutations profondes et est devenu encore plus subtil qu'auparavant. De nouveaux métiers ont vu subitement le jour dans le secteur bancaire : les optimiseurs de pondération des risques16. La tâche de ces nouveaux apprentis sorciers de la finance moderne consiste précisément à calibrer de manière stratégique les paramètres internes de risque afin de réaliser des économies significatives de fonds propres sans pour autant sacrifier la rentabilité. Par conséquent, la comparaison des ratios de solvabilité et des mesures RWA reportées par les banques est devenue un véritable défi et ce non seulement pour les régulateurs et les autorités de supervision, mais aussi pour les acteurs privés de marché (Le Leslé et Avramova, 2012).
Haldane et Madouros (2012) décrivent une expérience originale réalisée à deux reprises, en 2007 et en 2009, par les régulateurs britanniques dans le cadre de leurs exercices d'évaluation des risques. Plus précisément, pour évaluer la pertinence et la comparabilité des modèles internes de risque et des mesures RWA générées par ces modèles, l'autorité prudentielle a soumis pour évaluation aux plus grandes banques du Royaume-Uni un portefeuille commun hypothétique. L'exercice a consisté à comparer les PD estimées à l'aide des modèles internes, spécifiques à chaque banque, aux taux de défaut historiques reportés par les agences externes de notation. Sans surprise, l'exercice a révélé des écarts parfois très importants et difficiles à justifier économiquement entre les estimations reportées par les différentes banques participantes. À titre d'illustration, la PD moyenne reportée par la banque la plus conservatrice était de 3 à 6 fois plus élevée que celle reportée par la banque située à l'autre extrême (FSA, 2010).
Des expériences similaires ont été menées à l'échelle internationale par le Comité de Bâle (BCBS, 2016) et, plus récemment, au niveau européen par l'Autorité bancaire européenne (EBA, 2019). Le retour de ces expériences réalisées à une plus grande échelle ne fait que conforter les résultats reportés par les régulateurs britanniques. Bien qu'ils ne fournissent pas de preuves irréfutables sur l'utilisation des techniques d'arbitrage réglementaire17, ces exercices hypothétiques révèlent cependant que les banques pourraient très bien financer un portefeuille d'actifs strictement identique avec des niveaux de fonds propres réglementaires sensiblement différents.
Dans le même esprit, selon une enquête menée par Babel et al. (2012), plus de 65 % des responsables bancaires interrogés admettent avoir mis en œuvre des programmes explicites d'« optimisation » des pondérations du risque et réalisé ainsi des réductions significatives en termes de RWA, de l'ordre de 5 % à 15 % en moyenne. Les participants à l'enquête concluent qu'« il semble encore exister d'importantes opportunités d'optimisation des RWA, en particulier en ce qui concerne le risque de contrepartie (…) » (Babel et al., 2012, p. 7). Une conséquence directe de ces programmes d'optimisation, menés a priori à grande échelle, est la méfiance des investisseurs à l'égard des valeurs RWA (ou de toute autre mesure basée sur l'utilisation des modèles internes) divulguées par les banques IRB dans le cadre du troisième pilier. Samuels et al. (2012) ont interrogé plus d'une centaine de gestionnaires de fonds actifs et recueilli leurs opinions sur l'utilité des mesures RWA divulguées périodiquement par les banques. Il n'a pas été surprenant de constater que plus de la moitié des interviewés trouvent les RWA « peu fiables » et, pour plus de 60 % d'entre eux, le niveau de confiance dans les RWA reportées a baissé au cours des dernières années. Les principales raisons avancées pour expliquer les différences entre les RWA publiés par les banques sont (1) le choix de l'approche (standardisée vs. IRB), (2) l'architecture spécifique des modèles internes, (3) le business model de la banque et (4) la qualité perçue de l'application des normes de solvabilité par les autorités de supervision nationales.
Une autre implication importante de ces programmes d'optimisation stratégique est liée au contenu informatif des RWA reportés et des ratios de solvabilité basés sur les mesures internes. Plusieurs études comparent la performance relative des ratios de fonds propres pondérés et des ratios de levier simples, non pondérés, dans la prévision de la détresse des banques (insolvabilité, défaut de paiement, renflouement ou mise en place d'une aide financière étatique). Ces études concluent qu'un ratio de levier simple est généralement un meilleur indicateur de vulnérabilité qu'un ratio de capital pondéré en fonction des risques (Estrella et al., 2000 ; Haldane et Madouros, 2012 ; Mayes et Stremmel, 2014 ; Hogan et al., 2017). Demirgüc-Kunt et al. (2013), quant à eux, montrent dans un contexte multipays que la relation entre le capital et la rentabilité des actions bancaires est plus forte lorsque le capital est mesuré à l'aide d'un ratio de levier simple. Dans la même lignée, Hogan (2015) confirme ce résultat en comparant le contenu informationnel des deux types de ratios de solvabilité (simple et sensible au risque) et leur corrélation avec deux mesures standards du profil de risque bancaire (l'écart type des rentabilités des actions bancaires et le Z-score18).
D'autres études, relativement plus récentes, fournissent des preuves directes et convaincantes soutenant l'hypothèse d'arbitrage réglementaire. En utilisant différents échantillons et périodes d'estimation, Firestone et Rezende (2012), Vallascas et Hagendorff (2013), Beltratti et Paladino (2016) et Ferri et Pesic (2017) étudient la dispersion de la densité des RWA19 caractérisant les banques. Ces études concluent généralement qu'il existe des incohérences importantes entre les mesures internes et le profil de risque intrinsèque aux portefeuilles bancaires (Plosser et Santos, 2018)20. Cependant, ces incohérences sont dues à la manipulation stratégique des mesures internes (arbitrage réglementaire) ou à des erreurs accidentelles, inhérentes à la modélisation des risques (mauvaise gestion) ? Mariathasan et Merrouche (2014) s'intéressent à cette question et montrent que les portefeuilles des banques qui reportent des pondérations du risque relativement plus faibles ne contiennent pas nécessairement des prêts de qualité supérieure. Qui plus est, ces banques se comportent également moins prudemment (par exemple, elles versent plus de dividendes tout en étant moins bien capitalisées). Dans la même veine, Behn et al. (2016) exploitent la mise en œuvre progressive de l'approche IRB en Allemagne pour montrer que les PD et les pondérations de risque sont systématiquement inférieures dans les portefeuilles de crédit gérés à l'aide des modèles internes, IRB, comparés aux portefeuilles gérés selon l'approche standardisée. Le résultat le plus remarquable est que même si les pondérations internes du risque sont plus faibles dans les porte feuilles IRB, les taux de défaut et de perte constatés ex post dans ces mêmes portefeuilles sont, dans les faits, plus élevés. Plus important encore, dans ces mêmes portefeuilles de prêts, les taux d'intérêt débiteurs sont également plus élevés. À notre avis, ces résultats fournissent la preuve probablement la plus convaincante à l'appui de l'hypothèse d'arbitrage réglementaire. Les banques semblent en effet avoir été pleinement conscientes du risque relativement plus élevé de ces prêts, dans les portefeuilles IRB, puisqu'elles le tarifaient en conséquence (taux débiteurs plus élevés), malgré les pondérations de risque sous-estimées, utilisées à des fins d'allocation des fonds propres réglementaires21.
Dans la continuité du régime de solvabilité en vigueur (Bâle III), le Comité de Bâle a prévu une harmonisation des méthodes d'estimation des risques pour permettre une meilleure comparabilité entre les différents établissements bancaires (BCBS, 2017). Le socle méthodologique imposé pour le calcul de la charge minimale en capital, qu'il s'agisse de l'accord Bâle II ou encore Bâle III, ne précise que des critères très généraux définissant l'architecture du système de notation interne (BCBS, 2006, §403-404 ; EBA, 2017, §170). Or le choix du nombre de classes de notation ou encore des seuils, en termes de PD, qui définissent précisément ces classes a un effet non négligeable à la fois sur la charge minimale en capital et sur le pouvoir discriminant du système. On peut donc s'attendre à ce que les banques pratiquent une « optimisation » privée de leur allocation des fonds propres, à l'intérieur de l'espace des contraintes réglementaires, en jouant sur les détails de l'architecture des systèmes de notation. Cette piste a été exploitée par Fouad Ali et Pop (2019) qui, à partir d'un portefeuille hypothétique de crédits PME, supposent que la banque calibre son système de notation de sorte (1) à minimiser la charge exigée en fonds propres, étant donné la structure en termes de PD de son portefeuille, et (2) à maximiser le pouvoir discriminant du système pour répondre aux critères réglementaires22. L'analyse contrefactuelle révèle que les choix stratégiques en matière d'architecture de système de notation ont un effet considérable sur l'exigence en fonds propres calculée « en interne ». À titre d'illustration, pour un portefeuille donné, l'échelle de notation « optimisée » permet de réduire cette charge d'environ 3 %, en termes de RWA, par rapport à une échelle générée de façon aléatoire à l'intérieur de l'espace des contraintes réglementaires.
Les études empiriques survolées dans cette partie, centrées majoritairement sur la modélisation du risque de crédit23, montrent que l'arbitrage réglementaire est un phénomène endémique dans le secteur bancaire24. Le cadre réglementaire en vigueur, ainsi que les tendances en matière de réglementation bancaire, stimulent le développement de l'arbitrage réglementaire à travers au moins deux particularités : (1) la liberté accrue accordée aux banques dans l'estimation des mesures de risque et (2) le niveau de complexité sans précédent des normes, qui créent des failles opaques, plus faciles à exploiter. L'arbitrage réglementaire joue, comme nous allons le voir dans la partie suivante, un rôle central dans la conception de la régulation prudentielle et constitue la force motrice de la dialectique réglementaire.
Arbitrage réglementaire et mirages
de la dialectique réglementaire
De par sa nature, la régulation prudentielle est un processus dynamique, en constante mutation, qui s'adapte continuellement à l'évolution de l'industrie et au rythme des innovations financières. Cette dynamique peut être appréhendée à l'aide d'un concept séduisant, la « dialectique réglementaire »25, dans laquelle la notion d'arbitrage réglementaire joue un rôle très important.
Inspirée de la dialectique hégélienne, la dialectique réglementaire est un processus économique endogène qui se déroule comme une interaction cyclique entre deux forces antagonistes. D'une part, le régulateur (le « maître »26), dont l'objectif principal est d'assurer la stabilité financière en contraignant l'activité des institutions se trouvant sous sa juridiction (la « thèse »). D'autre part, les banques régulées (l'« esclave »25) qui, en poursuivant un objectif de maximisation du profit, tentent de repérer des brèches dans la régulation afin de la contourner (l'« antithèse »). Le mouvement du devenir est mis en route et entretenu par les contradictions de ces forces qui s'opposent et qui, s'opposant, autorisent le progrès de la régulation. La résolution du conflit a lieu dans une étape supérieure (la « synthèse »), dans laquelle le régulateur réagit en révisant les règles du jeu pour les rendre plus efficaces. Cette nouvelle étape peut être vue comme un phénomène de « re-régulation »27. La synthèse suscite des réponses adéquates de la part des banques régulées et devient, à son tour, une nouvelle thèse susceptible d'être niée28. Ce processus continue et influence de manière déterminante la dynamique de la régulation.
L'arbitrage réglementaire, stimulé par l'innovation financière, par les changements technologiques et, en particulier, par la volonté des banques de maîtriser les coûts de la régulation, constitue la force motrice de la dialectique réglementaire. Les acteurs principaux dans ce processus sont les grandes banques actives au niveau international, dont le degré de sophistication et les ressources leur permettent de transgresser, plus ou moins facilement, les règles qui leur sont imposées. Comme nous l'avons déjà mentionné dans la partie précédente, la régulation de la solvabilité bancaire principalement, mais aussi le plafonnement des taux créditeurs, la séparation des activités bancaires ou encore la prohibition de l'ouverture de succursales n'en représentent que quelques illustrations. Lorsque les contraintes réglementaires deviennent si coûteuses que les banques peuvent dégager des bénéfices significatifs en les évitant, l'exploitation des possibilités de contournement se fait à un rythme accéléré.
Deux autres implications concernant la capacité et la vitesse d'adaptation des principaux acteurs engagés dans le processus sont particulièrement pertinentes pour comprendre ce mouvement dialectique : (1) les acteurs privés s'adaptent généralement plus rapidement que les représentants des pouvoirs publics aux mutations de l'environnement économique et aux changements technologiques – avec pour corollaire, les banques régulées ajustent leur comportement plus vite et beaucoup mieux que leurs régulateurs ; (2) les autorités de régulation (internationales, en particulier) représentent la classe d'acteurs qui s'adapte et réagit le plus lentement à l'innovation (Kane, 1987, p. 115).
Afin de saisir correctement les enjeux de la dialectique réglementaire, il convient de nuancer en guise de conclusion quelques-uns des mirages auxquels son utilisation inadéquate pourrait conduire. L'illusion probablement la plus dangereuse serait de penser que l'on peut imposer un terme au mouvement dialectique29. En particulier, il serait hasardeux de concevoir que la dialectique réglementaire puisse déboucher sur un équilibre statique, caractérisant un système bancaire complètement déréglementé (c'est-à-dire sur la victoire totale et définitive de l'« esclave »). Comme le fait remarquer Kane (1981, p. 355), un tel environnement – si jamais il existait – contiendrait en soi des opportunités que certains acteurs tenteront d'exploiter pour accumuler des pouvoirs et des faveurs politiques. Inversement, il serait tout aussi illusoire d'imaginer l'achèvement de la dialectique réglementaire dans un univers où les régulateurs disposeraient de réglementations et d'une supervision parfaites (c'est-à-dire la suprématie absolue du « maître »). En effet, aucune raison sérieuse ne nous amène à penser que le postulat dialectique cesse soudainement d'être vrai : la dialectique appliquée correctement ne peut et ne doit jamais s'arrêter. En ce sens, les régulateurs et les banques régulées sont condamnés à évoluer perpétuellement dans un monde dans lequel toute solution réglementaire envisagée est destinée à être, d'une façon ou d'une autre, imparfaite. La stratégie en matière de politique de régulation prudentielle consiste alors à articuler habilement différents instruments réglementaires, imparfaits par nature, afin de faciliter l'émergence de nouvelles « synthèses », supérieures du point de vue de la collectivité.
Si l'on admet que l'arbitrage réglementaire est un phénomène endémique, comme le suggère la littérature économique récente, l'introduction dans le nouveau dispositif Bâle III d'un ratio de levier simple, non pondéré, est une bonne idée et devrait atténuer l'incitation des banques à contourner les règles de solvabilité. De même, la mise en place de niveaux planchers (output floors) limitant les avantages que les banques pourraient tirer de l'utilisation de modèles internes par rapport à des approches alternatives (par exemple, standardisées) est un autre pas dans la bonne direction.