Do not follow this hidden link or you will be blocked from this website !

Le rôle du market making face à la modernisation des marchés électroniques

mercredi 25 février 2015
Le rôle du teneur de marché est-il moderne dans un monde où la technologie permet une désintermédiation massive ?
 
Les bases du market-making
 
Il rappelait tout d’abord comment le teneur de marché, en s’interposant entre l’acheteur et le vendeur maintient les prix, en bénéficiant d’une fourchette offre-demande (i.e. bid-ask spread), et l’on s’attend qu’il assure la liquidité et la profondeur du marché qu’il maintient, via des ordres à cours limités – les quotes. Certes, ce faisant, il prend deux risques : un Risque d’inventaire, s’il ne parvient pas à déboucler rapidement une position et un Risque de sélection adverse, risque qu’il peut limiter en optimisant ses capacités en matière d’information.
Dans le cadre d’une relation bilatérale, le teneur de marché dialogue avec chacun de ses clients et justifie le prix de la liquidité qu’il fournit. Il établit un lien anonyme entre les différents investisseurs qui ne peuvent se dévoiler leurs intérêts, et qui ont pourtant avantage à se synchroniser. Dans ce cadre, il a une position privilégiée ; il se peut qu’il soit tenté d’en abuser.
 
 
Les évolutions récentes des microstructures de marché
 
La concentration des ordres sur un marché réglementé prévalait par le passé. Si la synchronisation entre un acheteur et un vendeur pouvait s’en trouver facilitée, ce mode d’organisation des échanges ne permettait pas la compétition. Du coup, les frais sont élevés et la qualité de service baisse. Ecoutant les doléances des investisseurs, la SEC et la Commission Européenne ont donc ouvert la cotation à la compétition : réglementations Reg NMS et MFID  I en 2004/05. De nouvelles plateformes (ECN : Electronic Communication Networks) aux USA, et les MTF : Multilateral Trading Facilites en Europe) ouvrent avec des business models attractifs. Une différence fondamentale entre les deux zones: les coûts de règlement-livraison sont différents en Europe selon les pays, uniques aux USA. Ce qui explique pour part la différence de systèmes entre les deux rives de l’Atlantique : En Europe, en effet les mots clef sont « best execution » et « Smart Order Routing » : à la différence des Etats-Unis, ce sont les brokers qui sont en charge de la compétition entre plateformes et ils doivent router les ordres vers celle qui a le meilleur prix pour le client.
 
 
Les enjeux de la fragmentation
 
Ces évolutions aboutissent à une fragmentation spatiale des marchés et des transactions. Il ne s’agit plus seulement de synchroniser les opérateurs temporellement sur une même plateforme mais sur des plateformes différentes. Il y a donc nécessité de tenir le marché dans une nouvelle dimension. On constate l’essor de nouveaux intervenants : les High Frequency Traders, qui jouent entre autres l’arbitrage entre plateformes. Certains, parmi les plus importants d’entre eux comme Getco, implémentent de fait un véritable market-making.
La rapidité d’intervention et donc la latence devient donc un enjeu essentiel.
Pour les plateformes, en concurrence les unes avec les autres, le pas de cotation , c’est-à-dire l’incrément minimum de prix pour pouvoir surenchérir, devient un enjeu de gains de parts de marché. Les régulations nouvelles font que la transparence pre-trade augmente : on est capable de voir l’état de l’offre et de la demande de façon très claire et précise sur toutes les plateformes en concurrence, sauf sur les dark pools. Autre aspect positif, des plateformes pan-européennes de trading se sont mises en place. Mais ces évolutions entraînent l’apparition de nouveaux risques opérationnels, qui impliquent tous des intermédiaires (Flash crash du 8 mai 2010 aux Etats-Unis, Hash Crash, Problème technique de diffusion des prix, Faillite de Knight en 2012 suite à la mise en production erronée d’un algorithme de trading sur marché actions, problème chez Goldman Sachs sur le marché des dérivés. En Europe problèmes de matching engines sur Euronext, le LSE ou BATS-CHI X)
En Europe, les réglementations MIFID II et MIFIR ont vocation à proposer des réponses à ces risques :
  • Faut-il ou non partager des coupes-circuits entre plateformes européennes : la question de la synchronisation est donc soulevée.
  • La surveillance doit être facilitée : les autorités de marché devraient pouvoir visualiser tous les échanges sur les plateformes qui proposent le trading sur des actions qu’elles régulent
  • La question du pas de cotation est au centre des discussions, ainsi que celle de la limitation de la part de marché des Dark Pools
Mais, selon Charles-Albert Lehalle, le risque opérationnel n’est pas assez pris en compte et traité au fond par le régulateur.
 
 
Les nouveaux teneurs de marché face à la fragmentation
 
Le pourcentage des trades dans lesquels un market maker est impliqué n’a pas changé depuis 2006 (typiquement 30% sur les valeurs du CAC 40, selon Euronext). En Europe, il semble d’après les études fondées sur les bases de données disponibles que les HFT soient majoritairement fournisseurs de liquidité contre la moitié environ aux Etats-Unis, les autres HFT étant plutôt des acteurs qui tentent de prédire le sens de l’évolution des cours. Selon Ch.-A. Lehalle, cela pourrait être dû au fait qu’en Europe le pas de cotation est plus faible qu’aux Etats-Unis, mais l’on ne dispose pas d’éléments clairs sur le sujet. Dans leur étude de 2012 « The Trading Profits of High Frequency Traders », Brokaard et al. montrent que ces HFT fournisseurs de liquidité sont exposés à la sélection adverse comme les market makers traditionnels. Toutefois la technologie permet à ces HFT apporteurs de liquidité de limiter les effets de cette sélection adverse en utilisant les newsfeeds. Ces flux d’informations prédigérées et structurées grammaticalement peuvent être lus et interprétés par des machines, qui peuvent appliquer des algorithmes de trading. Les acteurs ont donc grâce à cela accès à une information fondamentale.
 
 
L’avenir de la tenue de marché haute fréquence
 
Aujourd’hui on ne peut pas considérer que les HFT soient des market makers à part entière.
Si certains d’entre eux agissent statistiquement comme des apporteurs ce liquidité, personne n’a encore chiffré leur apport aux autres participants. Par ailleurs, le risque opérationnel qui résulte de leur activité n’est pas véritablement maîtrisé.
Seul un statut clair de market maker européen pourrait faire avancer le débat. Les obligations de ces nouveaux intermédiaires sont encore à inventer.
 
 
Les investisseurs dans un monde désintermédié
 
Pour les investisseurs, la désintermédiation offre plus de liberté. Mais plus de possibilités signifie aussi plus de complexité. Pour l’investisseur, à la différence du HFT, la question n’est pas celle de la gestion de la position à la milliseconde après la tombée d’une nouvelle, mais bien le coût total de la gestion, sur un laps de temps beaucoup plus important, de l’exécution par « paquets » d’un méta-ordre.
Dans ce nouveau contexte de microstructure de marché il faut donc redéfinir la façon dont on aborde le calcul des coûts de transaction.
Pour l’investisseur, qui doit faire exécuter un méta-ordre sur une durée de plusieurs heures, la question est de savoir comment le marché et donc les apporteurs de liquidités vont réagir. Etudier ces aspects est particulièrement important. Malheureusement, on ne dispose pas de bases de données de méta-ordres courant depuis les années 2000/2001 jusqu’à aujourd’hui. Ce qui permettrait de mieux connaître la façon dont les changements intervenus dans la microstructure de marché et l’arrivée de nouveaux acteurs comme les HFT et l’évolution des pratiques de marché ont modifié la donne du coût d’exécution pour les investisseurs.
 
 
Les investisseurs sont-ils devenus des intermédiaires comme les autres ?
 
Sur des marché liquides et électroniques, les investisseurs ont désormais la possibilité de prendre en charge eux-mêmes l’exécution échelonnée de leurs méta-ordres, y compris en utilisant des algorithmes de trading. Dans ces conditions, plus les investisseurs vont négocier continument leurs ordres, moins les teneurs de marché seront nécessaires. Mais ce n’est pas le cas pour les marchés moins liquides. Le marché obligataire constitue un bon exemple de marché pour lequel il est très difficile aux teneurs de marché de maintenir un inventaire. De nouveaux modèles sont néanmoins en cours d’expérimentation. (cf le projet Aladdin Trading Network de BlackRock, qui est un investisseur)).
La marche vers l’électronisation des marchés est donc appelée à se poursuivre, pour en particulier des raisons liées à la régulation des marchés et à leur traçabilité.
 
En conclusion.... 
 
Les évolutions récentes de microstructure de marché ne sont pas anodines. Elles sont engendrées, outre la réglementation, par les pratiques et la technologie. Elles remettent en cause la distribution traditionnelle des rôles, et particulièrement celle des teneurs de marché. Le rôle des apporteurs de liquidité n’a pas disparu mais il est dispersé au sein de nombreux acteurs, y compris les investisseurs et les HFT.
Mais, fournir de la liquidité dans un monde fragmenté et multilatéral devient une gageure pour les market makers traditionnels. Ces derniers ne sont pas en mesure de faire de la tenue de marché multi plateformes, compte tenu en particulier de l’importance prise par la latence. Mais certains traders haute fréquence tentent d’assurer ce rôle.
Le service qu’ils rendent à des investisseurs de plus en plus matures, dans des marchés liquides et automatisés, n’est toutefois pas clair.
Ce que l’on peut aujourd’hui comprendre plus clairement c’est l’interaction des différents acteurs identifiés comme market makers ou  HFT avec la liquidité, ce à l’échelle temporelle à laquelle ils interviennent, de l’ordre de la secondeGrâce à des études universitaires, l’on connaît mieux ces phénomènes. Malheureusement, les bases de données de ces différentes études ne se recoupent pas et portent sur des périodes et/ou des marchés différents. Ce qui ne permet pas des comparaisons robustes. On peut donc regretter l’absence d’une base de données cohérente, portant sur une tranche de temps bien définie et rassemblant l’ensemble des données des différents marchés européens, voire mondiaux, sur la période. L’application de ce nouveau modèle de trading électronique à d’autres classes d’actifs, par nature moins liquides, nécessitera une forte innovation.
Si l’on prend le cas de BondMatch ( https://bonds.euronext.com/fr/bondmatch), c’est aujourd’hui une plateforme, ce n’est pas un business model. C’est une réponse à une exigence réglementaire. L’exemple du marché actions est à cet égard très instructif : ce qui a changé les choses et véritablement créé unbusiness model sur ce marché a été la dissymétrisation des frais, c’est-à-dire « le premier arrivé est payé ». Le marché obligataire devra lui aussi trouver son business model. Aujourd’hui la technologie est prête, elle a été expérimentée sur les marchés actions. Mais pour que le passage à l’électronisation sur d’autres classes d’actifs comme l’obligataire, fonctionne vraiment, il est nécessaire de trouver un business model dans lequel tout le monde trouve son intérêt à opérer sur ces nouvelles plateformes.
 
Après cet « exposé très éclairant », selon le mot d’Edouard-François de Lencquesaing, délégué général de l’EIFR, la parole était donnée à l’assistance :
 Question : Ces évolutions qui remettent en cause le cours de Bourse ne remettent-elles pas en cause la fonction économique des marchés actions ? Le High Frequency Trading n’est-il pas au fond qu’un jeu désormais, qui permet aux acteurs de faire du profit, au dépens de l’économie ?
 
Ch.-A. Lehalle : Les gains que peuvent engranger les traders HF diminuent de mois en mois. Il n’y a d’ailleurs plus eu de nouveau frequency trader aux Etats-Unis depuis 3 ans. La concurrence est très forte et le secteur a connu une vague de fusions-acquisitions. Certains avancent que les investissements que le High Frequency Trading nécessite contribuent à l’économie : le nouveau câble sous-marin qui va relier les Etats-Unis et l’Europe assurera d’autres fonctions que le transport des données du High Frequency Trading, alors pourtant que c’est ce secteur qui le finance en grande partie.
D’autre part, la question de l’importance de la liquidité apportée par le trading pour l’économie réelle est un vrai sujet, sur lequel je n’aurai pas d’avis très tranché.
 
Ch.-A L. donne alors la parole à un banquier, spécialiste du corporate brokerage :
Selon ce banquier, l’on observe une attrition de la liquidité globale. Si l’on excepte les quelques 70% de liquidité due au HFT, la liquidité secondaire ne fait que décroître. Les entreprises ont de moins en moins recours à ce type de marché pour lever des capitaux. Et les investisseurs se tournent directement vers les corporate émetteurs pour participer à leur levée de capitaux. Investisseurs et émetteurs passent en dehors du circuit du marché qui était le lieu naturel où ils devaient se retrouver. Le HFT est une sorte de Bernard l’hermite qui est venu phagocyter un environnement qui, à la base, n’était pas fait pour lui. Il y a une désintermédiation du marché primaire.
 
Question : Le quantum computing n’est pas d’actualité et la course à la latence a ses limites. Compte tenu des investissements engagés par les acteurs, quelles conséquences au plan de la concentration dans ce secteur ?
Ch.-A.L: Cette question a motivé le début de ma réflexion sur le market-making. Ce schéma est un schéma dynamique. Je suis convaincu par les études universitaires et les conversations que j’ai eues avec les professionnels que les market makers traditionnels sont remplacés par les market makers électroniques. Aujourd’hui ce market making se déroule entre acteurs qui se rémunèrent sur un business price qui est de plus en plus petit. Ils font des investissements lourds en technologie. Or si le gain n’est fondé que sur la latence, on sait que la limite est la vitesse de la lumière. Va-t-on arriver à un degré très important de concentration avec ses conséquences, est-ce que les investisseurs vont se substituer aux acteurs dominants du HFT ? C’est pourquoi je souhaite travailler ces questions avec des bases de données adéquates. Le modèle traditionnel bilatéral évolue dans un monde plutôt lent. Grâce à la technologie et pour des raisons réglementaires de traçabilité, on passe à l’électronique. Les HF market makers prennent le dessus. Les investisseurs se mettent eux aussi à utiliser des algorithmes de trading. La liquidité s’étoffe. Tant mieux si dans une étape ultérieure, les HFT disparaissent, remplacés par les investisseurs.
 
Edouard-François de Lencquesaing : On aborde trop souvent ces questions de façon binaire.Il y a effectivement un effet buy and hold qui fait que le private placement est appelé à se développer. Par exemple, avec l’EuroPP, on travaille à apporter de la liquidité, du private placement sur des actifs structurellement non liquides et dont on ne se soucie pas tellement du besoin de leur débouclage. Mais sur les grosses lignes, un besoin de débouclage finit toujours par se manifester. On a donc structurellement besoin d’un marché comme sécurité pour l’investisseur, et qui lui permette de sortir d’une position. Comme l’a montré l’exposé de Ch.-A.L, on ne sait pas, quand on veut acheter ou vendre une position, quel est le moment où se manifestera la contrepartie. Il y a donc un gap. Un gap qui était financé par les bilans et il y avait donc un coût de bilan (problème de CRD IV).Ce coût de bilan n’est aujourd’hui plus supportable, y compris du fait de la réglementation. Ce que l’on observe aujourd’hui c’est que la technologie va permettre de le rendre virtuel. Et l’on voit même que si l’on se trouve dans un processus pur de marché, par le découpage des ordres, les investisseurs qui vont devenir market makers d’une certaine manière vont permettre par eux-mêmes de créer ce gap entre l’acheteur et le vendeur. Mais ils ne peuvent le faire que parce que la technologie existe. Mais en attendant que les investisseurs mettent en place cette technologie qui réglera le problème du timing, il faut bien qu’il y ait des fournisseurs de technologie, qui sont les High Frequency Traders. On va donc voir émerger des HFT jusqu’au jour où les investisseurs seront actifs.
Pour BondMatch le problème est de parvenir à imaginer comment entre les apporteurs d’ordre du buy-side eux-mêmes peut se mettre en place un tel mécanisme. Or aujourd’hui on n’y arrive pas, compte tenu de l’absence d’un business model robuste, qui puisse justifier que des acteurs se portent contreparties.
 
Question pour faire du HFT, il faut déjà que le titre soit liquide. Est-ce que dans ces conditions, le HFT ne s’adresse pas essentiellement aux grosses capitalisations ?
Ch.-A.L : De ce que j’ai pu retirer des discussions que j’ai eues avec les professionnels, le problème n’est pas lié à la liquidité d’un titre, mais plutôt au netting de leurs positions. Ils ne pouvaient pas aller sur les titres moins liquides, parce qu’ils ne pouvaient pas prendre des positions short, qu’ils n’ont pas le statut de market maker et que de ce fait ils ne pouvaient pas avoir un inventaire à l’achat et à la vente. Quand aujourd’hui je discute avec eux sur les questions liées aux marchés d’options - marchés qui, à mon avis, seront les prochains à devenir plus liquides - on retrouve ce problème de netting : en Europe la situation est catastrophique car ils peuvent apporter de la liquidité à l’achat et à la vente sur différentes plateformes d’options mais ils se retrouveraient ensuite avec un inventaire qu’ils ne pourraient pas netter. La situation est encore plus compliquée sur l’obligataire, compte tenu en particulier de la non-fongibilité des souches.
 
Précision d’un assistant : un acteur comme Knight, racheté par Getco, arrive à faire de la productivité sur des midcaps.
Concernant le business model et la concentration, certains acteurs meurent et d’autres se transforment, car le seuil de rentabilité n’est pas toujours atteint au sein des HFT. On observe des transformations des modèles des HFT historiques, notamment sur le marché actions. Certains se spécialisent sur le retail, d’autres vendent leur technologie et entrent dans un métier de broker, d’autres enfin se contentent d’utiliser des modèles prédictifs et d’intervenir de façon agressive sur le marché. On citait l’exemple de Getco : cet acteur a monté un desk d’exécution et vend ses algorithmes de smart order routing aux institutionnels, notamment. Enfin on note une extension sur des classes géographiques comme Hong Kong, ou encore une course sur d’autres classes d’actifs, les devises en premier
 
Conclusion de Charles-Albert Lehalle
On a pu constater au fil de la discussion que nous sommes face à une transformation. Sur le marché actions les choses sont à peu près en train de se stabiliser. Pour la Place de Paris en particulier, la question est d’accompagner cette transformation, surtout en ce qui concerne de nouvelles classes d’actifs, au bénéfice des investisseurs et des corporates.
 
Conclusion de la matinée par Edouard-François de Lencquesaing
Effectivement, nous sommes dans un monde qui bouge et rien n’est figé. Et il faut à mon sens éviter de diaboliser les systèmes. Souvent prédomine un vision trop binaire des réalités. Or, pour le bon fonctionnement du système, le spéculateur est nécessaire. On a structurellement besoin de tels acteurs qui font le lien, spéculateurs, arbitragistes, HFT, etc…ou de technologies qui remplissent ce rôle. Il faut donc aborder les questions de façon positive. Ainsi, nous avons besoin d’un statut de market maker. C’est un problème positif de régulation qui n’est toujours pas traité. Nous devons travailler à travers l’ILB, le pôle de compétitivité… à créer des bases de données, qui font encore défaut. Cette absence de données nécessaires à un travail académique sérieux sur les questions en suspens laisse ouverte la porte à l’intuition, aux interprétations, plus ou moins teintées d’idéologie.
Avec Paris Europlace, nous travaillons actuellement sur le dossier PARIS 2020, par exemple, de façon à pousser l’écosystème (banques, corporates, Trésor…) à travailler sur une stratégie : qu’est-ce que l’on prévoit que les marché seront et quel sera leur rôle pour financer l’économie dans cinq ans, compte tenu des nouvelles technologies et d’autres évènements prévisibles comme l’arrivée de la Chine et autres questions ? Et si l’on parvient à dégager une vision, quel est le chemin entre la situation dans laquelle nous sommes aujourd’hui – sur laquelle beaucoup portent un regard pessimiste, sachant où la pente nous entraîne si l’on ne fait rien – vers ce que l’on voudrait être demain. Aurons-nous un rôle ou vaudrait-il mieux outsourcer ce rôle outre-Atlantique ou outre-Manche ? Ce pourrait être plus simple et satisferait peut-être la real economy. Pour ma part je ne suis pas de cet avis. Il nous faut donc continuer de nous mobiliser, développer des outils de recherche et dans le même temps élaborer une vision stratégique qui permette d’éclairer les différents scénarios d’évolution souhaitables. Nous ne deviendrons pas Hong Kong Singapour ou Londres, Nous serons autre chose, mais autre chose à l’intérieur d’une Europe qui aura défini ce qu’elle veut être pour le financement de son économie. Par exemple, nous évoquions le segment des MidCaps : il existe un défi des MidCaps en Europe ; en quoi les technologies vont pouvoir faciliter leur accès au marché, puisque l’on sait que les marchés vont devoir financer de façon plus importante ce segment-là.

Retrouvez les dossiers de l'EIFR :


Conférence Annuelle de l'EIFR : Régulation et Croissance

Enjeux et défis du contrôle des risques opérationnels

Les ateliers Risques de l'EIFR 1- Gouvernance de l'information - 20 janvier 2015 - Avec Atos Consulting et RSD