Le 6 novembre 2019, l’Autorité française de la concurrence (ADLC) et le Bundeskartellamt (BKartA) ont rendu public un rapport intitulé Algorithms and Competition.
Le rapport ici commenté poursuit les travaux menés conjointement par l’Autorité française de la concurrente et le Bundeskartellamt allemand au sujet des évolutions induites par la transformation numérique des activités économiques et s’insère dans un mouvement plus large de réflexion de diverses institutions européennes et mondiales (voir notamment le précédent rapport communs des ANC allemande et française, Competition Law and Data, 10 mai 2016).
Le sujet traité n’a, jusqu’à présent, fait l’objet que de peu de publications européennes. Il est pourtant d’importance : l’automatisation de la prise de décisions plus ou moins stratégiques par les entreprises conduit à interroger l’efficacité du cadre actuel du droit de la concurrence. Cette interrogation se présente avec d’autant plus d’acuité que l’automatisation de la prise de décision dans le domaine économique couvre aujourd’hui de très larges secteurs d’activité. Il suffit pour s’en convaincre de penser non seulement aux GAFAM (Google, Amazon, Facebook, Apple, Microsoft), aux BATX (Baidu, Alibaba, Tencent et Xiaomi) ou encore aux plateformes (voir Conseil d’État, « Puissance publique et plateformes numériques », Étude annuelle, Paris, La Documentation Française, 2017). Mais l’algorithmisation ne s’arrête pas à la seule économie numérique. Elle présente des effets très concrets dans l’économie « matérielle » : de la fourniture d’énergie (compteur Linky) au transport (Uber), en passant par l’administration (algorithmes prédictifs de détection de fraudes), tous les secteurs subissent une profonde transformation.
Dans cette perspective, le rapport de l’ADLC et du BKartA se distingue par son caractère systématique. Les questions essentielles soulevées par la généralisation de l’usage d’algorithmes sont abordées, même si toutes ne reçoivent pas de réponses définitives. Le lecteur appréciera en particulier la grande pédagogie que suivent les autorités allemande et française dans la présentation tant des notions de base que dans la couverture des différentes hypothèses de problèmes concurrentiels que posent les algorithmes.
I. Appréhender les algorithmes
Le rapport commence ainsi par proposer plusieurs méthodes de classification des algorithmes, après avoir pris soin de préciser l’équivocité de la notion d’algorithme qui désigne tant « a sequence of simple and/or well-defined operations that should be performed in an exact order to carry out a certain task or class of tasks or to solve a certain problem or class of problems » que « the practical application of this “universal” method, coded in a particular programming language or related to a particular recipe » (p. 3). Les algorithmes peuvent être utilisés à des fins de collection et de contrôle de bases de données quantitativement importantes (big data), à déterminer le prix de biens ou de service (princing algorithms), à générer des services personnalisés qui s’appuient sur des données personnelles ou encore à établir des classements (ranking algorithms). Mais les autorités européennes ne s’arrêtent pas à ces seules applications. Elles laissent en effet la porte ouverte à l’analyse d’autres fonctions telles que les algorithmes d’appairage (matching algorithms, tels que ceux utilisés par les applications de rencontres), les algorithmes d’enchères ou d’alertes de prix ou encore ceux permettant de changer automatiquement de fournisseur d’énergie. Les problèmes posés par des « majordomes numériques » (digital butlers) tels « Siri » ou « Alexa » sont aussi évoqués – bien que non approfondis.
Les nombreuses hypothèses non spécifiquement caractérisées par les autorités de la concurrence démontrent cependant les limites de la classification des algorithmes. On peut même s’interroger sur le fait de savoir si une telle classification est possible – étant entendu qu’une classification ne regroupant que des classes réduites à une seule catégorie perdrait tout intérêt explicatif – et, dans l’affirmative, si elle est souhaitable et opérante. En effet, rares sont les secteurs qui échappent encore au mouvement de fond de la transformation numérique et par conséquent tous types d’algorithmes, plus variés les uns que les autres, peuvent émerger. Il ne faut pas non plus omettre le fait que la transformation numérique est source d’innovation technologique – voire source de nouvelles activités économiques, structurés selon des modèles économiques inédits – et qu’en l’état actuel, toute tentative de sérier les algorithmes serait rapidement dépassée. Aussi, à « l’agilité » attendue ou imposée de l’économie numérique, devrait symétriquement répondre celle des autorités de la concurrence. Concentrer l’analyse sur une seule ou quelques catégories seulement d’algorithmes ne peut que conduire au risque de manquer certaines innovations ou de n’y réagir que trop tard. Les structures économiques de l’économie numérique se caractérisent précisément aujourd’hui par de très fortes polarisations (en témoigne l’exemple même des GAFAM) dont personne ou presque n’avait prévu le poids.
Si les autorités de la concurrence proposent une autre classification fondée sur la distinction des paramètres d’entrée qui laisse, elle aussi, de convaincre de sa pertinence, les méthodes proposées sous le vocable « Additional ways to classify algorithms » emportent plus franchement la conviction.
Sous ce titre « fourre-tout » se cachent, selon nous, des classifications dont les facteurs discriminants sont les plus pertinents, essentiellement parce qu’ils conditionnent la question du champ respectif laissé à l’emprise humaine d’un côté et à l’automatisation d’un autre côté. Cette barrière trace en effet la limite de ce qui est sanctionnable au regard d’infractions qui appellent un élément intentionnel de ce qui échappe à l’emprise humaine.
On y trouve en premier lieu une classification qui s’appuie sur les méthodes d’apprentissage des algorithmes : soit les algorithmes agissent selon des paramètres déterminés par l’homme et (ré)itèrent des opérations fixes ; soit, au contraire, les algorithmes sont dits « auto-apprenants » (self-learning) et présentent alors un degré plus ou moins élevé d’autonomie. Parmi ces derniers, il faut encore distinguer selon que les algorithmes font l’objet d’un apprentissage supervisé (supervised learning) qui s’appuient sur une analyse de relations entre des données d’entrée et des données de sortie, ou, au contraire, qu’ils suivent un apprentissage non supervisé (unsupervised learning) par établissement de corrélations au sein d’une grande base de données ou, enfin, qu’ils conduisent un apprentissage par renforcement (reinforcement learning) qui recourt à un retour d’expérience.
S’agissant spécifiquement du cas des algorithmes auto-apprenant (not. pp. 42-43), on peut se demander si une modification de la législation ne serait pas, à terme, nécessaire. En un sens, il pourrait être imposé aux entreprises commercialisant les solutions informatiques d’introduire des limites à ce que peuvent faire et/ou apprendre les algorithmes, en quelques sortes sur le modèle des lois d’Asimov, obligation qui s’appuierait sur une logique de « compliance by design ».
En deuxième lieu, les autorités européennes proposent de distinguer les algorithmes en fonction de leur degré « d’interprétabilité » (interpretability), que l’on traduirait plus heureusement par « accessibilité ». Le fonctionnement de certains algorithmes est plus aisément compréhensible par l’homme que d’autres. Notamment, les objectifs assignés à certains algorithmes peuvent apparaître sinon impossibles à déterminer, du moins très difficiles à appréhender :
On the other hand, there are algorithms whose behaviour is hardly interpretable even with access to their code. In the following, the study will refer to them as black-box algorithms. Such algorithms might involve advanced learning methods and therefore may process a wider range of capabilities. Although there might be approaches to investigate (and maybe also supervise) the resulting behaviour as well as to extract the predefined goal of the algorithm,59 the strategy that results from using such an algorithm often cannot be fully identified just from its code.
P. 13.
En ce sens, on voit un lien très direct entre les critères de cette classification et la capacité des autorités de la concurrence à appréhender certaines situations. La compréhension d’un algorithme qui détermine le comportement d’un acteur sur le marché est indispensable à la qualification d’une infraction anti-concurrentielle. Or, si les autorités de la concurrence sont dans l’incapacité de comprendre le fonctionnement d’un processus automatisé déterminant un comportement concurrentiel, elles devront faire face à une difficulté majeure d’application du droit de la concurrence.
En troisième et dernier lieu, l’étude propose de distinguer selon que l’algorithme est conçu en interne, au sein de l’entreprise, selon ses ressources et besoins propres, ou si, au contraire, l’algorithme est développé par un tiers et, dans cette hypothèse, si son usage est généralisé à tout ou partie d’un secteur économique ou non lié spécifiquement à ce secteur. Cette classification permet d’appréhender un double problème : d’abord celui de savoir si d’éventuels caractères propres d’un algorithme anti-concurrentiel résultent du vœu de l’entreprise poursuivie ou non ; ensuite, celui de savoir si des effets de réseaux peuvent se produire du fait de la généralisation de l’usage d’un algorithme en particulier qui pourrait, par ex., conduire à aligner les comportements ou à centraliser et redistribuer les données de différentes entreprises concurrentes, c’est-à-dire, in fine, à contraindre le mimétisme concurrentiel ou à faciliter des collusions anti-concurrentielles.
Au final, l’étude des autorités française et allemande présente un intérêt certain au-delà même du champ de la concurrence en ce qu’elle permet d’appréhender simplement une notion mal connue sur laquelle de nombreux fantasmes sont projetés.
II. Appréhender les risques concurrentiels algorithmiques
Les hypothèses d’atteinte à la concurrence sont présentées de façon beaucoup plus accessible que dans le rapport de l’OCDE sur le même thème, publié il y a deux ans (OCDE, Algorithms and Collusion: Competition Policy in the Digital Age), mais restent pour l’essentiel limitées aux collusions, la question du lien entre algorithmes et pouvoir de marché n’est qu’évoquée dans un encart (pp. 22 -25).
Ce focus dirigé sur les pratiques collusives traduit une conception limitée du rôle de l’algorithme en droit de la concurrence. D’ailleurs, les liens entre algorithmes et pouvoir de marché que les autorités n’ont pas tout à fait renoncé à aborder, sont assez évidents. D’abord, les autorités s’interrogent sur la capacité des algorithmes à créer ou supporter un pouvoir de marché. Outre les effets tirés de l’innovation, l’usage d’algorithmes peut conduire à la constitution de barrières à l’entrée. Cependant, l’effet des algorithmes n’est jamais totalement détaché des données qui lui permettent de fonctionner. Les autorités s’interrogent ainsi sur les effets des algorithmes de prix et des algorithmes de classement. S’agissant de ces derniers, la Commission a déjà sanctionné Google sur le fondement de l’article 102 TFUE , du fait du fonctionnement de son algorithme de classement, qui tendait à privilégier les entreprises du groupe (Décision du 27 juin 2017, aff. AT. 39740). Un recours devant le TPI actuellement pendant (Aff. T- 612/17) sera suivi avec intérêt.
En ce qui concerne les collusions – c’est-à-dire les comportements susceptibles d’être saisis par l’article 101 TFUE – les autorités européennes distinguent les phases (initiation de l’entente d’un côté et application/stabilité de l’entente d’un autre côté) au sein desquelles les algorithmes sont susceptibles de présenter des effets anticoncurrentiels. Sont ainsi identifiés huit facteurs influençant la mise en application et/ou la stabilité de la situation collusive : le nombre d’entreprises, les barrières à l’entrée, la fréquence des interactions entre les entreprises, la transparence du marché pour les concurrents et celle pour les consommateurs, l’asymétrie d’information entre les concurrents, la différenciation des produits et l’innovation. Un très intéressant tableau (ci-dessous) accompagne le propos et expose les effets de ces facteurs sur la collusion et le rôle potentiel joué par les algorithmes :

On note qu’hormis le nombre de concurrents, la fréquence des interactions et la transparence du marché pour les concurrents, sur lesquels les autorités supposent que les algorithmes présentent un effet « positif » – au sens quantitatif et non qualitatif d’un point de vue concurrentiel – les algorithmes sont supposés ne présenter aucun effet per se, aucune influence nécessaire ni automatique ; au contraire, le contexte factuel demeure toujours déterminant.
Cette approche prudente aurait mérité d’être également suivie s’agissant des trois premiers facteurs. On peut en effet nuancer la conclusion de l’étude, qui apparaît un peu rapide. D’abord, l’explication donnée sur l’effet des algorithmes sur le nombre de concurrents permet de douter de la pertinence de l’effet assigné aux algorithmes. Ce que vise en réalité l’étude est la réduction des coûts de coordination permise par les algorithmes. Ce faisant, ce n’est pas tant le nombre de concurrents sur lequel les algorithmes influent que leur capacité à se coordonner. En ce sens, l’effet induit par les algorithmes se confond avec celui produit sur le facteur de la fréquence des interactions. Et là encore la fréquence élevée des interactions, si elle peut constituer un indice dans le processus de qualification de l’entente au sens de l’article 101 TFUE, ne permet pas par elle-même d’inférer un risque concurrentiel. Enfin, l’idée selon laquelle les algorithmes permettent de façon systématique d’augmenter la transparence du marché pour les concurrents n’est pas non plus certaine. Tout dépend d’une part du type d’algorithme utilisé, de son rôle et de ses moyens (par exemple, si l’algorithme ne s’appuie pas sur les données des entreprises concurrentes pour réaliser son processus), et d’autre part de l’entité propriétaire de l’algorithme, ou propriétaire des données d’input ou d’output de l’algorithme et de son intervention sur le marché pertinent. Rien n’empêche en effet qu’un algorithme soit détenu par une entreprise tierce au marché et soit la seule à détenir les informations pertinentes.
Concernant l’initiation des collusions, les développements de l’étude sont assez peu convaincants. Ils demeurent centrés sur la question des collusions tacites, dont on peut s’interroger sur le caractère punissable :
Intuitively, in this type of scenario, algorithms could help initiate and maintain collusion by facilitating the monitoring of competitors’ prices and the automation of the response to these prices. If such monitoring is costly (for instance, monitoring different companies might require adjustments of the scraping method to the different websites), market players would monitor only a few (or no) other players than the market leader, leading to a natural coordination consisting in adapting to its behaviour.
P. 20.
En effet, la simple constatation d’un parallélisme de comportements n’est pas par lui-même susceptible de conduire à la qualification d’infraction anticoncurrentielle (CJCE, 14 juillet 1972, Imperial Chemical Industries Ltd, aff. 48/69, p. 66 ; TPIUE, 12 avril 2013, CISAC c/ Commission, Aff. T-442/08, pt. 99), ce que les autorités reconnaissent :
Accordingly, where an algorithm merely unilaterally observes, analyses and reacts to the publicly observable behaviour of the competitors’ algorithms, this might usually have to be considered as an intelligent adaptation to the market rather than a coordination.
Si l’on pousse le raisonnement des autorités, le parallélisme des comportements issus d’une décision algorithmique pourrait conduire à la répression de l’entreprise ou des entreprises qui y recourent. Or, c’est tout le problème de l’imputabilité qui resurgit. Il faut attendre des développements bien plus lointains avant que le rapport ne traite ce problème (cf. infra).
On peut rapidement passer sur les hypothèses proposées par l’étude qui relèvent de trois ordres : (1) les algorithmes facilitent des pratiques anticoncurrentielles « classiques », (2) une entente est provoquée par l’usage du même algorithme d’une entreprise tierce et (3) les algorithmes conduisent à un parallélisme de comportement automatiquement.
Le rapport examine dans la détail la possibilité qu’une telle situation émerge du monde non virtuel. L’analyse des études menées sur cette question (pp. 45-56) démontre que les conditions dans lesquelles un tel scenario est susceptible de se produire sont si drastiques qu’aucune certitude ne peut naître. Bien qu’il existe une probabilité non nulle de collusion algorithmique, les autorités semblent donc n’y voir qu’un risque infime.
III. Appréhender la responsabilité concurrentielle
Synthétiquement, l’étude rappelle la position de l’ancienne commissaire à la concurrence, Margaret Verstager, qui posait comme principe politique que :
[…] companies can’t escape responsibility for collusion by hiding behind a computer program. […] And businesses also need to know that when they decide to use an automated system, they will be held responsible for what it does. So they had better know how that system works.
Vestager, Speech at the Bundeskartellamt 18th Conference on Competition, Berlin, 16 mars 2017
Deux approches sont étudiées : celle qui consiste à n’imputer la responsabilité d’une collusion tacite algorithmique que lorsque la preuve d’une violation d’un standard de prudence raisonnable (à déterminer) peut être rapportée ; et celle, beaucoup plus formelle qui consiste à traiter l’algorithme comme un employé de l’entreprise, dont la jurisprudence considère déjà que toute action anticoncurrentielle doit être imputée à l’employeur.
S’agissant de la première solution de responsabilité, on peut se demander si, en l’absence de tout élément prouvant l’intention ou le manque de sagacité que l’on peut raisonnablement attendre – ou que les autorités de contrôle entendent raisonnablement attendre – des opérateurs économiques, on ne pourrait voir émerger une sorte d’ « immunité algorithmique » comme il existe une « immunité oligopolistique ». L’immunité oligopolistique permet aux entreprises d’échapper à la sanction lorsqu’il peut être prouvé que le parallélisme des comportements observé provient non d’une concertation des entreprises, mais de la situation du marché oligopolistique qui se caractérise par un faible nombre de concurrents et, donc, un mimétisme presque naturel des comportements. Si on suit cette piste de réflexion, on peut tout à fait imaginer que le traitement d’une masse considérable de données et l’identité du processus algorithmique conduise mécaniquement, à une échelle bien plus grande que celle des marchés oligopolistiques, vers un parallélisme des comportements de toutes les entreprises recourant au même algorithme et/ou à la même base de données. Dans ce cas, la réponse des autorités de la concurrence ne peut être que double : soit le niveau d’auto-contrôle, de surveillance et, finalement, de responsabilité est alourdi, pèse sur les seules entreprises, et fait l’objet d’un intervention ex post des autorités ; soit, au contraire, ces autorités publiques prennent les devants et, lorsqu’elles ont identifié un algorithme problématique, avertissent les entreprises ex ante que tout recours à ceux-ci, sous certaines conditions, entraînera l’ouverture de procédures. Ces deux alternatives ne sont bien sûr pas exclusives l’une de l’autre.
La seconde solution de responsabilité est évidemment bien plus rigide et, en un sens, automatique que la première. Sans prendre de position définitive, et notant l’absence de précédent jurisprudentiel sur cette question spécifique, les autorités tendent tout de même vers cette seconde solution :
Such an approach would foster legal consistency by subjecting undertakings to the same rules regardless of whether they delegate decision-making to employees or algorithms. Moreover, it is more in line with the way competition authorities want to encourage companies to take precautions if they want to promote “compliance by design”. It is also consistent with the idea that practices illegal when implemented offline, equivalently will be illegal when implemented online, in the spirit of a “technological neutrality” principle.
P. 59.
Au soutien de la solution d’une imputabilité automatique, on pourrait établir un parallèle avec les processus de traitements automatisés de données. Le règlement n°2016/679 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données – RGPD – impose qu’un responsable du traitement soit désigné, au sens de son article 4, point 7. Autrement dit, derrière un traitement de données personnelles, une personne physique responsable est toujours présente. La situation pourrait être la même en droit de la concurrence. Cette obligation aurait pour conséquence de pousser les entreprises soit à comprendre le fonctionnement des algorithmes qu’elles utilisent, soit à s’abstenir à recourir à des algorithmes dont elle ne comprennent pas le fonctionnement.
Il y aurait toutefois beaucoup à dire sur cette approche. Retenons simplement pour le moment que, lorsqu’un algorithme échappe à son développeur et que son fonctionnement lui-même n’est pas accessible aux autorités de concurrence, on comprend mal pourquoi l’entreprise devrait elle-même être tenue pour responsable de ses agissements. La solution la plus évidente consisterait à soutenir qu’il appartient à l’entreprise de ne pas déléguer un pouvoir de décision – fut-il automatique – à un processus dont elle ne maîtrise pas parfaitement le fonctionnement. Mais dans ce cas, on en revient à la justification du manque de prudence. Autrement dit, seul le degré du standard de prudence raisonnable varie. Il ressort en réalité des explications fournies par les autorités que ce choix relève d’avantage d’une question de politique de la concurrence que d’une question strictement juridique. En déplaçant le plan d’analyse, on modifie également le champ des réponses admissibles.
L’étude avait pourtant préalablement fait preuve de plus de retenue dans la qualification et/ou l’imputabilité des infractions. Au sujet des collusions issues d’un usage inconscient mais parallèle d’un même algorithme par une entreprise tierce, les auteurs du rapport notaient que :
in order to establish an infringement by the competitors themselves, they must be at least aware of the third party’s anticompetitive acts or could have at least reasonably foreseen them. Where this is not the case, the conduct may be apprehended as a legal parallel behaviour on the part of the competitors.
P. 41.
IV. Appréhender le rôle et les méthodes des autorités de la concurrence face aux algorithmes
S’agissant des défis que présente les transformation numérique de l’économie, l’étude propose une approche méthodique. Elle liste en pp. 62 à 64 un ensemble d’éléments pertinents dans l’étude des effets des algorithmes, destinés à conduire l’analyse concurrentielle. Cette liste très pratique pourrait être utilisée telle quelle comme des lignes directrices. Il conviendra donc de rester très attentifs aux futures décisions de l’Autorité de la concurrence et d’apprécier si et, le cas échéant, dans quelle mesure les nécessités pratiques de son contrôle pourront conduire à s’aligner ou, au contraire, à s’écarter de la méthode proposée.
Toujours au titre des méthodes, une proposition intéressante est présentée en p. 65, qui évoque la possibilité pour les autorités de la concurrence de recourir eux-mêmes à des processus automatisés d’analyse des informations devant permettre la détection des collusions algorithmiques. En somme, la proposition reviendrait à combattre les algorithmes anti-concurrentiels par d’autres algorithmes. L’étude souligne qu’un certain nombre d’autorités ont déjà pu mettre en place de telles techniques pour la détection des cartels. Elle souligne également la nécessité de disposer d’un nombre relativement élevé de donnés pour que l’analyse soit significative. Se pose alors la question du cadre juridique du partage d’informations entre autorités, tel que récemment renforcé par l’article 22 de la directive 2019/1.
On ne peut s’empêcher de penser aux algorithmes prédictifs qui sont utilisés par certaines administrations de contrôle, notamment dans le domaine fiscal, qui permettent d’isoler des profils de risque de fraude (voir par ex. l’avis CNIL, Délibération n° 2019-114 du 12 septembre 2019 portant avis sur le projet d’article 9 du projet de loi de finances pour 2020, concernant la possibilité ouverte par l’article 9 du projet de loi de finances pour 2020 à l’administration fiscale de collecter et d’analyser les données des personnes physiques publiées sur les réseaux sociaux aux fins de détecter d’éventuelles fraudes.).
On note également avec un intérêt soutenu que le rapport fait référence à la possibilité d’études expérimentales qui simulent des situations concurrentielles en (ré)itérant des processus algorithmiques (spéc. pp. 71-72). L’intérêt essentiel réside ici dans la question de la preuve. D’une preuve économique, le droit de la concurrence s’apprête à découvrir et recourir à une preuve algorithmique, c’est-à-dire à un processus probatoire dont seuls comptent les résultats d’expériences autorisées par le caractère éthéré des algorithmes. Autrement dit, là où la preuve économique est nécessairement réductrice, partielle et hypothétique, la preuve algorithmique deviendrait concrète, statistique et tangible. Les autorités mentionnent explicitement cette hypothèse probatoire. C’est, du point de vue du contrôle de la concurrence – et, en réalité, du contrôle juridictionnel de leur actes et donc du contentieux qui en découle – l’une des perspectives les plus stimulantes de la transformation numérique de l’économie et de l’administration.
Table des matières