Merci de désactiver le bloqueurs de pub pour visualiser cette vidéo.

Réunion du Conseil scientifique de l'AMF - 5 février 2024

À l’occasion de sa séance du 5 février 2024, le Conseil scientifique de l’AMF a reçu Sylvain Carré, lauréat du Prix AMF jeune chercheur en économie 2023 pour ses travaux sur les délits d’initiés. Le Conseil a par ailleurs discuté de l’intérêt des méthodes de Machine Learning pour la détection des abus de marché (présentation d’Anne Zhao) ainsi que de l’impact du trading algorithmique sur les marchés boursiers (présentation de Thierry Foucault).

Délits d’initiés et pénalités associées

Sylvain Carré, chercheur à l’Université Paris Dauphine PSL, a présenté l’étude "Insider trading with penalities" sur la fixation par le régulateur des pénalités applicables aux délits d’initiés. L’approche explique le comportement des opérateurs informés, voire disposant d’informations privilégiées. La méthode proposée par le chercheur vise à identifier le montant des sanctions optimal pour désinciter à l’exploitation illégale d’informations privilégiées. Il construit ainsi un modèle théorique dans lequel l’ensemble des transactions ne peut être contrôlé par le régulateur, du fait de ses contraintes de ressources, ce qui introduit une probabilité de ne pas être sanctionnés en cas de manquement d’initiés. Pour autant, pécuniaires ou pas, des sanctions trop élevées pourraient réduire la liquidité du marché (évaluée par les pertes des investisseurs non-informés, qu’il s’agit de minimiser) et limiteraient l’efficience de marché en retardant l’intégration de nouvelles informations dans les prix (qu’il convient de maximiser). À l’inverse, l’absence de sanction exacerberait les délits d’initiés. 

Les contraintes de ressources conduisent le régulateur à un arbitrage entre des pénalités pécuniaires qui assurent ses recettes (sur le modèle du régulateur américain, contrairement au cas français) et la liquidité/efficience de marché. Plusieurs fonctions de pénalité sont testées. Les fonctions dont les pénalités augmentant rapidement avec le montant du délit (fonctions quadratiques) apparaissent les moins optimales tandis que des règles plus simples (pénalités linéaires ou constantes) semblent préférables. Bien que cela soit contre-intuitif, dans le cadre de leur modèle théorique et au vu de l’intégration rapide des nouvelles informations dans les prix (qu’il s’agisse ou non d’une information privilégiée au sens légal), les auteurs concluent qu’il est préférable de sanctionner les petits délits d’initiés (quoi qu’en pratique des frictions en limitent l’espoir de gain) plutôt que les gros, pour préserver la diffusion de l’information dans le marché. Depuis, une nouvelle étude publiées par les chercheurs Marcin Kacperczyk et Emiliano Pagnotta ont d’ailleurs confirmé empiriquement la sensibilité des intervenants au montant des sanctions (article paru au Journal of Finance en 2023 : Kacperczyk, M., & Pagnotta, E. S. (2024). Legal risk and insider trading. The Journal of Finance79(1), 305-355.).

Sur la base d’une discussion de ces travaux par Catherine Casamatta de l’université de Toulouse (TSE), le Conseil scientifique a salué la portée de ces travaux, tant pour le régulateur que la recherche académique. Le débat s’est organisé autour de potentiels développements futurs propres à accroître le réalisme de l’approche, par exemple en précisant l’objectif d’intégrité de marché du régulateur (utilisation d’information publique vs. non-publique), les coûts modélisés (d’inventaire, de transaction, d’acquisition d’information, etc.), la rationalité des investisseurs non-informés (par exemple besoin de liquidité, aversion au risque), le coût de la surveillance de marché et de mise en œuvre des sanctions. Le timing des délits et la capacité de fragmenter les ordres des initiés étant essentiels, une analyse dynamique serait particulièrement utile. Les délits d’initiés sur actifs numériques seraient aussi un axe d’investigation prometteur.

Méthodes de Machine Learning pour la détection d’abus de marché

Anne Zhao a présenté ses travaux de thèse, en préparation à l’Université Paris Saclay et co-encadrés par l’équipe Data Intelligence à l’AMF, sur la détection de manipulations de cours à l’aide de méthodes de Machine Learning. Ces méthodes se substituent aux systèmes de détection historiques dans lesquels des experts définissent « manuellement » des indicateurs. La gestion des alertes est lourde pour le régulateur, les analystes consacrant du temps au traitement des faux-positifs. Dans ce contexte, le Machine Learning pourrait améliorer la détection en prenant mieux en compte la variété des types de manipulations, et en allégeant la charge des analystes (réduction des tâches manuelles de détection sans perte de performance statistique). Ce nouvel outil pourrait aussi faciliter la détection de nouveaux types de manipulation non répertoriés. Cependant, le déploiement de ces techniques sur données de marché exige de garder une bonne maîtrise du rapport coûts/bénéfices.

Le traitement est appliqué aux données d’ordres et transactions boursières sous-jacentes à six rapports d’enquête de l’AMF sur des manipulations de type layering (affichage d’intérêts trompeurs sous forme d’ordres à plusieurs limites du carnet, annulés avant exécution). 

Le Conseil scientifique a apprécié la clarté de la présentation sur un sujet aussi technique ainsi que les bénéfices de ces travaux qui permettent d’objectiver les avantages et les limites de ce type d’approche pour la surveillance des marchés.  

Trading algorithmique sur les marché actions

Thierry Foucault a présenté son étude "Algorithmic pricing and liquidity in securities markets" écrite avec Jean-Edouard Colliard et Stéfano Lovo sur l’impact du trading algorithmique sur la qualité du marché boursier. 

L’étude introduit, dans un modèle de market making à la Glosten-Milgrom (1985), des stratégies market making algorithmiques (AMM) face à des investisseurs informés (risque d’anti-sélection). Pour rendre compte du recours croissant à l’intelligence artificielle des AMM, les auteurs font l’hypothèse qu’ils apprennent par renforcement (machine learning ou Q-learning). Leur comportement est alors évalué sur la base de simulations de marché, et comparé, avec et sans anti-sélection, aux prédictions d’un modèle stratégique standard (équilibre de Nash prédisant des profits des teneurs de marché nuls). Sur ces bases, il ressort que les AMM :

  • améliorent la liquidité mais n’apprennent pas à être compétitifs (proposer les meilleurs prix même si c’est rentable). À l’instar des résultats de l’étude académique de Jonathan Brogaard et Corey Garriott (2019) (Brogaard, J., & Garriott, C. (2019). High-frequency trading competition. Journal of Financial and Quantitative Analysis54(4), 1469-1497.), leur jeu n’est pas concurrentiel. Cela s’expliquerait par l’incertitude, le "bruit" des prix d’actifs et le coût d’un apprentissage qui en réduirait les effets. Toutefois sous les hypothèses retenues, les algorithmes ne se coordonnent pas sur des équilibres collusifs comme semblent le faire ceux de vente en ligne (cf. travaux des autorités de la concurrence). L’intérêt des algorithmes d’apprentissage par renforcement pour les marchés rencontre certaines limites. 
  • apprennent à évaluer l’anti-sélection : leurs rentes croissent avec leur capacité à réduire l’anti- sélection, évaluée par la fourchette de prix à l’achat et à la vente (bid-ask spread en anglais), et contribuent ainsi à l’efficience de marché (découverte des prix).

Faisant suite à la discussion de l’étude de Carole Gresse de l’université de Paris Dauphine PSL, le Conseil scientifique a salué l’analyse complète et originale. Le débat a porté sur le comportement du bid-asks pread, contraire aux prédictions de la littérature, et le coût élevé de l’imperfection de l’apprentissage, peut-être explicables par le coût de stockage des titres, et le niveau (fixé de façon exogène) du poids du profit espéré par l’AMM après examen du marché et de la probabilité d’exploration d’un nouveau prix par l’AMM. Une sensibilité au nombre d’itérations sur la base desquelles l’algorithme apprend (conditions de lancement et d’arrêt de l’algorithme) est aussi soulignée par certains travaux de recherche récents. 

En conclusion, même quand les algorithmes sont faciles à décrire, leurs effets peuvent être très difficiles à anticiper (et expliquer). L’analyse « comportementale » des algorithmes reste largement à mener.