Pour s’en tenir à la définition administrative la plus générale, un algorithme constitue « l’étude de la résolution de problèmes par la mise en œuvre de suites d’opérations élémentaires selon un processus défini aboutissant à une solution » (arrêté du 27 juin 1989 relatif à l’enrichissement du vocabulaire de l’informatique).
La réforme de l’État est centrée depuis 1996 sur la numérisation des activités administratives. Elle a été relayée par la Modernisation de l’Action publique de 2012 à 2017, puis par la Transformation publique de 2017 à 2022. De façon à obtenir et à rendre signifiantes les quantités de données, notamment personnelles, détenues sur les utilisateurs, d’une part, et à définir de façon personnalisée les produits et services qu’on leur fournit d’autre part, la mise en place d’algorithmes a dû être précédée de la dématérialisation des procédures administratives. Le développement des algorithmes en milieu administratif n’en était pas moins le but nécessaire, s’agissant d’un outil stratégique de valorisation de ces données.
Les algorithmes se sont progressivement introduits dans les processus administratifs pour supprimer des tâches répétitives, détecter des corrélations, identifier des risques, circulariser le contrôle interne, aider à la décision, produire des décisions créatrices de droits. C’est ainsi que sont apparus au grand jour les cas d’usage d’algorithmes précédant le contrôle fiscal ou social, proposant un montant d’indemnisation ou affectant les bacheliers dans les universités ou les pétitionnaires dans les logements sociaux (Pour des illustrations, V. par ex. Bourcier, D., De Filippi, P., « Les algorithmes sont-ils devenus le langage ordinaire de l’administration ? », in Koubi, G., Cluzel-Métayer, L., Tamzini, W., Lectures critiques du Code des relations entre le public et l’administration, 2018, LGDJ ;Timmer, I., Rietveld, R., « Rule-based systems for decision support and decision-making play an important role in Dutch legal practice. A brief overview of applications and implications » Droit et société, 2019/3, n° 103, p. 517-534).
Ce développement d’outils informatisés qui aboutissent à des prises de décision dont les paramètres peuvent être définis localement pose de nombreuses questions démocratiques qui tiennent à la conception même que l’on se fait de l’État et de son rôle (Sée, A., « La régulation des algorithmes : un nouveau modèle de globalisation ? », RFDA 2019, p. 830), dépassant ainsi le seul droit administratif. Selon une logique qui traverse dorénavant, dans les régimes politiques libéraux, les pratiques de la plupart des exécutifs, l’enjeu démocratique se retrouve concurrencé par un enjeu managérial.
Un enjeu démocratique
Commencer par cet enjeu peut aujourd’hui paraître crucial pour deux raisons. Le droit administratif, tout d’abord, n’est plus le champ principal de la protection des libertés, tel qu’il a pu être investi par le Conseil d’État depuis 1875 et par la doctrine depuis 1954 et la création de l’enseignement des « Libertés publiques ». La crise sanitaire de 2020 a bien montré que le juge administratif est avant tout au service des politiques publiques et des décisions gouvernementales, précisément dans les périodes de circonstances exceptionnelles où la brutalité des décisions administratives est la plus attentatoire aux libertés et où la forme de leur adoption heurte le plus le principe démocratique.
Ensuite, l’intégration du phénomène numérique, ou si l’on préfère de la numérisation de l’État et de la Société, dans le champ du droit constitutionnel et des libertés, est particulièrement timide. On pourrait pourtant penser que tout ce qui modifie profondément le fonctionnement de la Société entre dans le champ du droit constitutionnel. L’article 16 de la DDHC nous indique en effet que Toute Société dans laquelle la garantie des Droits n’est pas assurée, ni la séparation des Pouvoirs déterminée, n’a point de Constitution, ce qui devrait nous rappeler que l’objet premier des savoirs constitutionnels est non pas la norme, mais la Société. Mais il est un fait que jusqu’à présent, ni la mondialisation du réseau Internet, ni l’utilisation de programmes informatiques pour traiter les données qui transitent par ce réseau, n’ont fait l’objet d’une véritable intégration du phénomène numérique dans le champ constitutionnel.
Or, l’enjeu de cette intégration est fondamentalement démocratique (Cluzel-Métayer, L., « L’influence des algorithmes sur l’édiction des décisions administratives », AFDA, Les méthodes en droit administratif, 2018). Il inclut la connaissance des données et des processus de traitement ainsi que la maîtrise de ces données et processus. Cela pose les questions essentielles : Qui détient le pouvoir de produire et traiter les données ? Comment ce pouvoir est-il contrôlé ? Quelles sont les conséquences en termes de responsabilité devant les citoyens ? Autant de questions dont les déterminants, l’analyse et les solutions ne sont nullement limités au droit administratif, au droit public, ou même au droit tout court. Elles conduisent à des réponses qui ne peuvent qu’emprunter le chemin des valeurs et des choix politiques.
En ces domaines, contrairement à une illusion française commune, l’État ne peut pas tout et la technologie n’est pas nécessairement révolutionnaire (Dubois, C., Schoenaers, F., « Les algorithmes dans le droit : illusions et (r)évolutions », Droit et société, 2019/3, n° 103, p. 501-515). L’État rencontre de nombreux obstacles à l’exercice de sa souveraineté et ses autorités administratives à l’introduction de techniques nouvelles, en conséquence de l’utilisation même des outils numériques.
Le premier type d’obstacles est fonctionnel. L’exercice des compétences de l’État (défense, politique monétaire et fiscale, éducation, systèmes de santé) est conditionné par sa dépendance complète aux réseaux numériques et aux programmes de traitement de l’information.
Le deuxième type d’obstacles est factuel. De manière exemplaire, l’État rencontre des difficultés matérielles dans l’exercice de sa mission de protection des droits et libertés des citoyens. Les réseaux numériques mondiaux sont en effet régis par des principes économiques et juridiques libéraux et par le droit privé : l’État n’y dispose pas de moyens réellement contraignants pour y faire respecter le droit des données personnelles, le droit à la vie privée, le droit d’auteur, etc.
Le troisième type d’obstacles est de méthode. L’organisation du réseau mondial d’Internet repose sur des modes de régulation décentralisée entre acteurs privés, où les États sont placés à égalité avec ces acteurs. Par définition, ils ne sont pas en position de souveraineté et, par définition, les citoyens n’y exercent pas un pouvoir démocratique car le principe de cette régulation est celui de la négociation et non celui du vote. Relativement à la gouvernance des réseaux, le Conseil constitutionnel a déjà été saisi de questions liées à l’interférence des opérateurs privés dans la définition des politiques publiques, c’est-à-dire de leur ingérence dans les compétences juridiques des États (CC, n° 2015-468 ss. DC du 22 mai 2015 à propos de Uber ; et CC, n° 2016-744 du 29 décembre 2016, à travers la loi de finances pour 2016). Mais nombreux sont les secteurs dans lesquels, sans qu’il y ait eu contentieux constitutionnel ou administratif, cette ingérence est patente. L’exemple le plus topique est celui d’une célèbre plate-forme de prise de rendez-vous médicaux en ligne, particulièrement sollicitée par le gouvernement lors de la crise sanitaire de 2020.
Malgré ce contexte peu favorable à la construction raisonnée d’un cadre juridique de contrôle, le juge administratif ou constitutionnel a eu à faire face à divers recours mettant en jeu l’usage d’algorithmes. Il est dès lors nécessaire de rechercher les axes structurant ses analyses et ses interprétations, pour apprécier la nature et l’étendue du contrôle exercé sur les nouveaux processus d’administration qui intègrent, selon les secteurs d’intervention ou d’action, des outils numériques et logiciels plus ou moins sophistiqués, à des stades divers de l’exercice des compétences et des fonctions des personnes publiques.
Un enjeu managérial
La puissance de calcul mise en œuvre par les algorithmes peut être un auxiliaire redoutable du pouvoir de décision confié aux autorités exécutives et administratives (Desmoulin-Canseiler, S., Le Métayer, D., Décider avec les algorithmes. Quelle place pour l’homme, quelle place pour le droit, coll. « le sens du droit », 2020, Dalloz). D’une part, elle accroît le caractère asymétrique (ou inégalitaire) du droit administratif et de son contentieux, puisque le particulier est vraiment seul face à une machine dont les moyens le dépassent de très loin ; d’autre part elle porte atteinte à une conception éthique de la décision administrative, résultat d’un libre arbitre humaniste, appliqué à la situation personnalisée – et donc unique – de son destinataire.
Toute l’histoire du contrôle de l’action administrative montre que la préoccupation première du juge administratif et de la doctrine a été pendant environ un siècle, depuis le règlement de procédure du Conseil d’État de 1860 jusqu’à l’après Deuxième Guerre mondiale, de soumettre la décision administrative au droit.
Puis, dans un deuxième temps, qui correspond à l’essor du principe de contradiction puis du droit au procès équitable (L’usage d’algorithmes ne manque pas de mettre en question les acquis de cette phase : Ferrie, S.-M., « Les algorithmes à l’épreuve du droit au procès équitable », Procédures, 2018/4, étude 4) depuis l’arrêt Trompier Gravier jusqu’à l’arrêt Didier, le droit administratif et de son contentieux a privilégié une conception principalement procédurale qui rejoint d’ailleurs la tendance mondiale à définir ainsi un droit administratif globalisé, par la transparence, la participation, la motivation des décisions, le droit au recours, la redevabilité et quelques standards de contrôle : proportionnalité, adéquation des moyens aux fins, non-utilisation de moyens inutilement restrictifs, attentes légitimes.
Enfin, dans un troisième temps, particulièrement perceptible en France depuis la mise en œuvre des diverses politiques publiques de réforme de l’État et du service public à partir de 1995, la décision administrative a progressivement été orientée par la notion de qualité issue des sciences de l’organisation des entreprises, en se fondant soit sur l’adéquation des réalisations par rapport aux objectifs, soit sur la baisse des coûts de fonctionnement, soit sur la satisfaction des usagers. Elle prend ainsi une tournure essentiellement managériale, où le respect du droit matériel et de la justification profonde de ce droit passe après celui de la procédure, considérée comme un parapluie sécuritaire et une satisfaction lénifiante des usagers, et surtout après les critères quantitatifs d’efficacité comptable. L’enjeu managérial de la décision administrative est d’ailleurs rejoint par celui de la justice administrative qui est censée la contrôler. Presque simultanément en effet, depuis la réforme des procédures d’urgence contentieuse en 2000, le droit du contentieux administratif privilégie la notion de qualité de la justice, en gérant avant tout les flux de recours, soit en restreignant l’accès au juge par l’intérêt à agir ou les délais de recours, soit en diminuant les catégories d’affaires jugées en formation collégiale, soit en systématisant l’utilisation des ordonnances de tri. La justice administrative elle-même a déjà engagé le mouvement d’algorithmisation du procès (Clement, M., « Algorithmes au service du juge administratif : peut-on en rester maître ? », AJDA 2017, p. 2453), mais cette question très particulière ne sera pas traitée ici.
C’est donc la mise en œuvre des algorithmes de décision administrative que l’on doit étudier, en soulignant à la fois la modification qu’ils induisent dans la représentation de la décision administrative (Boudinar-Zabaleta, A., « La décision administrative algorithmique », Revue de droit public approfondi, déc. 2017, n° 5, 1) et des questions qu’ils soulèvent dans le contrôle contentieux opéré par le juge administratif.
Il n’est pas utile de se livrer pour cela à une réflexion détaillée sur la notion d’Intelligence artificielle (IA) dont le périmètre est à la fois trop large et insuffisamment consensuel pour livrer une confrontation raisonnable à des outils d’analyse juridique précis et spécialisés dans une problématique de contrôle. Les applications actuelles de l’IA relèvent, selon les experts, de l’IA faible (Cypel, A., Au cœur de l’intelligence artificielle. Des algorithmes à l’IA forte, DeBoeck, coll. « Hors Collection Sciences », 2020. On parlera d’IA forte lorsque cette discipline aboutira à doter la machine d’une intelligence qui lui serait propre, et au-delà de l’auto-apprentissage, fera naître en elle une forme de conscience). Leurs processus sont fondés sur des algorithmes, listes d’instructions et règles permettant de dégager, soit directement soit à l’aide de probabilités, des décisions. Il est ainsi suffisant de se centrer matériellement sur les algorithmes pour poser les termes du problème du contrôle par le juge, y compris dans une perspective de protection des droits de l’Homme (CNCDH, 7 avril 2022, Avis n° A-2022-6 relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux). Le travail est en quelque sorte facilité, car il n’y a pas, contrairement à certains fantasmes, de changement de paradigme.
Bien sûr, la tendance aujourd’hui répandue consistant à promouvoir la déontologie, l’éthique et la prévention a tendance à détourner l’attention des réelles difficultés rencontrées par la théorie du droit pour appréhender les modifications que les algorithmes produisent sur la décision administrative. En témoigne la mise en avant par la CNIL (Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, Rapport de synthèse du débat public dans le cadre de la mission de réflexion éthique confié par la Loi pour une République numérique, déc. 2017) autant que par la doctrine (Grabias, F., « La transparence administrative, un nouveau principe ? », JCP A, n° 50, 17 déc. 2018, 2340), des principes éthiques de loyauté, de confiance et de vigilance, qui devraient englober des concepts dont la teneur juridique est déjà mitigée, comme la dignité humaine ou la vie privée. L’autorégulation qui en résulte renforce indéniablement un effet préventif bénéfique déjà présent dans les lois (Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, art. 121 créé par l’Ordonnance n° 2018-1125 du 12 décembre 2018, par ex.). Elle rejoint aussi la préconisation récente de la CNCDH de réaliser une étude d’impact pour l’introduction d’algorithmes dans le processus de décision administrative. Toutefois, comme toute « compliance » conçue pour des acteurs privés, elle semble négliger le fait que, pour les autorités administratives, ces obligations sont en fait incluses dans le respect du principe de légalité. N’étant pas principalement fondée sur le droit, elle ne saurait constituer l’unique ni le meilleur mode de contrôle (Forest, D., « La régulation des algorithmes, entre éthique et droit », Lamy Droit de l’Immatériel, 2017, n° 137, p. 38-42).
Ainsi, au plan du droit, les problèmes nouveaux qui apparaissent sont de même nature que par le passé (De Filippi, P., « Repenser le droit à l’ère numérique : entre la régulation technique et la gouvernance algorithmique », Gautrais, V., Moyse, P. E., Droit et Machine, 3, Éditions Thémis, 2017, hal-01676890). En effet, que la décision soit prise par une machine ou bien que cette machine soit une aide à la décision de la personne nominalement compétente, la question de la responsabilité et de son imputation se pose. Qu’elle soit prise par la machine ou par délégation, la question de la légalité de la décision se pose (Duclerq, J.-B., « L’automatisation algorithmique des décisions administratives individuelles », RDP 2019, p. 295). Dans les deux cas, c’est le résultat du processus, acte juridique ou fait juridique, que le système de droit saisit. Dans les deux cas, les tensions s’établissent entre droit et technique, entre informatique juridique et droit de l’informatique.
Ce résultat et ces tensions sont tributaires de variables administratives diverses auxquelles le contrôle juridictionnel peut s’appliquer. Ainsi, de prime abord, la réception des innovations induites par les algorithmes incite le juge à contrôler les nouvelles procédures administratives intégrant leur usage (I). Mais pour y parvenir, se posera le plus souvent la question du contrôle direct de la décision administrative issue de la production algorithmique (II).
1. Le contrôle juridictionnel de l’usage des algorithmes dans la procédure administrative
L’hypothèse d’un contrôle juridictionnel de l’usage des algorithmes se situe dans un cadre particulier. Le droit public et administratif du numérique s’est en effet déployé dans deux directions distinctes et complémentaires : le droit des données publiques d’une part, à vocation générale, qui prend pour objet les données elles-mêmes et leur collecte ; le droit des procédures administratives numériques d’autre part, qui se centre sur l’utilisation de ces données au moyen de divers processus de traitement dont certains constituent des algorithmes. Ce dernier champ est autant interne, s’il concerne une partie de la procédure d’élaboration des actions et des actes des autorités administratives, qu’externe s’il se saisit de données personnelles pour les besoins d’une décision individuelle ou s’il débouche sur des actes réglementaires qui s’imposent erga omnes. Le juge retrouvera ici sa distinction traditionnelle entre procédure constituant une garantie des droits des usagers et procédures purement internes.
1.1. La transparence et l’intelligibilité de l’usage des algorithmes
La première des préoccupations et des garanties procédurales est certainement la transparence (Orofino, A. G., « The Implementation of the Transparency Principle in the Development of Electronic Administration », European Review of Digital Administration and Law, 2020, vol. 1, 1-2, p. 123). C’est par elle que commence la prise de conscience par les particuliers des modalités de traitement de leurs demandes, c’est aussi par elle que le législateur a commencé à encadrer l’usage des algorithmes.
Le cadre national aujourd’hui fixé résulte de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, qui pose plusieurs principes relatifs à l’usage des algorithmes pour l’aide à la décision administrative. L’article L. 311-3-1 du code des relations entre le public et l’administration (CRPA) créé par cette loi, dispose : « une décision individuelle prise sur le fondement d’un traitement algorithmique comporte une mention explicite en informant l’intéressé. Les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre sont communiquées par l’administration à l’intéressé s’il en fait la demande ». Le décret n° 2017-330 du 14 mars 2017 relatif aux droits des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique, pris pour l’application de la loi sur ce point, ajoute au CRPA un article R. 311-3-1-2 précisant que l’autorité administrative « communique à la personne faisant l’objet d’une décision individuelle prise sur le fondement d’un traitement algorithmique, à la demande de celle-ci, sous une forme intelligible et sous réserve de ne pas porter atteinte à des secrets protégés par la loi, les informations suivantes : 1° Le degré et le mode de contribution du traitement algorithmique à la prise de décision ; 2° Les données traitées et leurs sources ; 3° Les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé ; 4° Les opérations effectuées par le traitement ». Enfin la loi du 6 janvier 1978 modifiée par l’ordonnance du 12 décembre 2018 prévoit en son article 47 2° une transparence renforcée jusqu’à l’intelligibilité puisque, pour ces décisions, « le responsable de traitement s’assure de la maîtrise du traitement algorithmique et de ses évolutions afin de pouvoir expliquer, en détail et sous une forme intelligible, à la personne concernée la manière dont le traitement a été mis en œuvre à son égard ».
Ce cadre est conforme aux dispositions européennes en la matière. Le RGPD accepte en effet que les décisions produisant des effets juridiques à l’égard d’une personne ou l’affectant de manière significative puissent être prises sur le fondement d’un traitement automatisé de données à caractère personnel en respectant certaines conditions. Tout d’abord, si elles entrent dans l’une des hypothèses prévues par l’article 22.2 du RGPD, notamment lorsque l’intéressé y a consenti a priori. A défaut ensuite, si elles remplissent quatre conditions cumulatives : 1) mentionner expressément ce traitement automatisé ; 2) traiter des données personnelles non sensibles ; 3) que la décision puisse faire l’objet d’un recours administratif garantissant une intervention humaine ; 4) que l’autorité administrative prenant la décision communique les principes de fonctionnement de l’algorithme utilisé.
On notera que ces principes européens, largement inspirés du droit administratif global, donnent lieu, même au Royaume-Uni après le Brexit, à une réception conforme à la culture juridique européenne. Le Central Digital and Data Office (CDDO) a en effet publié en novembre 2021 un standard de la transparence algorithmique destiné à aider les organismes du secteur public à diffuser une information pertinente sur leurs traitements algorithmiques et à le faire dans un format ouvert. Ce standard est exprimé en format de données. Bien qu’il ne soit pas obligatoire, sa mise en œuvre donne lieu à une remontée au CDDO et à une publication dans une liste nationale. En France, Etalab ne pratique pas différemment.
Il faut ajouter enfin que, dans les procédures concernant l’information des élus, l’usage de l’algorithme doit aussi permettre la transparence de l’information. Ainsi, dans l’évaluation préalable obligatoire pour tout projet de marché de partenariat, il convient d’apporter des précisions sur les différents algorithmes de valorisation du risque utilisés et d’expliquer de manière concrète et non agrégée les chiffres globaux soumis à l’assemblée délibérante. A défaut, l’évaluation préalable ne justifie pas le recours au partenariat et la délibération de la collectivité territoriale sera annulée par le juge administratif (CAA Marseille, 6e ch., 27 déc. 2019, 19MA01714).
La tendance jurisprudentielle est donc fixée, la transparence algorithmique est un préalable indispensable à tout traitement automatisé de données qui constituerait une aide à la décision, intégrée de façon formelle à l’élaboration d’un acte administratif (Il faudra toutefois réserver le cas des algorithmes développés dans le cadre de la lutte contre les crimes et délits, dont il est clair que la confidentialité est parfois une condition essentielle d’utilisation : V. par ex. Degrave E., The Use of Secret Algorithms to Combat Social Fraud in Belgium, European Review of Digital Administration and Law, 2020, vol. 1, 1-2, p. 167). Son fondement peut être de droit dur ou de droit souple, elle n’en demeure pas moins le point d’entrée du contrôle en cas de recours administratif ou juridictionnel et elle conditionne l’effectivité des garanties qui devraient être affirmées aux particuliers visés par une décision issue d’un traitement algorithmique : le droit à intervention humaine et le droit au paramétrage des critères de fonctionnement (CNCDH, Avis n° A-2022-6 préc.).
1.2. Le contrôle de l’algorithme lui-même
(Le cadre général de ce contrôle est clairement exposé par Barbin, E., « Le contrôle juridictionnel de l’outil numérique d’aide à la décision administrative », RFDA 2021, p. 491).
Par contre, transparence de l’usage des algorithmes et de leur portée ne signifie nullement transparence de l’algorithme lui-même, comme en témoigne par exemple le cas du vote électronique, où les fabricants d’ordinateurs et de logiciels de vote ont toujours refusé de divulguer les codes sources et autres éléments couverts selon eux par des brevets ou par le secret des affaires ; ou encore divers domaines d’expertise comme les études d’impact acoustiques (CAA Bordeaux, 5e ch., 23 févr. 2021, 20BX00980 ; CAA Nancy, 4e ch., 26 janv. 2021, 20NC00876) ou environnementales (CAA Nancy, 4e ch., 06 avril 2021, 19NC03514) réalisées par des cabinets d’ingénieurs-conseils privés. Au demeurant, même pour l’État, l’interprétation du juge administratif, par exemple en cas de contrôle fiscal, est que l’autorité administrative « est tenue de préciser, dans sa proposition de rectification, les fichiers utilisés, la nature des traitements qu’elle a effectués sur ces fichiers et les modalités de détermination des éléments servant au calcul des rehaussements, mais n’a l’obligation de communiquer ni les algorithmes, logiciels ou matériels qu’elle a utilisés ou envisage de mettre en œuvre pour effectuer ces traitements, ni les résultats de l’ensemble des traitements qu’elle a réalisés » (CAA Paris, 2e ch., 22 sept. 2021, 20PA00654 ; CE, 8e-3e ch. réun., 04 mai 2018, n° 410950).
De même, le recours contre un traitement automatisé de données à caractère personnel permettant le développement d’un algorithme peut être la voie d’accès au contrôle par le juge d’une atteinte grave et immédiate justifiant que l’exécution en soit suspendue au titre de l’art L. 521-1 CJA. Toutefois, l’algorithme n’est que la modalité du traitement de données : il faut donc que l’acte attaqué constitue en même temps une autorisation de mise en œuvre de l’algorithme après son développement. Cela n’était pas le cas dans l’affaire Datajust, où algorithme devait pourtant servir à la réalisation d’évaluations rétrospectives et prospectives des politiques publiques en matière de responsabilité civile ou administrative ; à l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels ; à l’information des parties et à l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre dans la perspective d’un règlement amiable des litiges ; et enfin à l’information ou à la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels. Le dispositif, limité à deux ans, a été jugé « expérimental » par le Conseil d’État (CE, ord. réf. 26 mai 2020, n° 440378). On pourrait ajouter que l’algorithme n’aboutissait qu’à une information et n’imposait aucun barème, ce qui rend difficile d’y voir une atteinte portée aux intérêts propres des requérants.
Il a pu alors être avancé que l’algorithme, en tant que traitement automatisé qui oriente les comportements et induit des normes internes de valorisation des critères d’analyse des dossiers, relève du droit souple (Conseil d’État, Le droit souple, Les rapports du Conseil d’État, Etude annuelle 2013, p. 141 ; CE, 19 sept. 2014, Jousselin, n° 364385 ; AJDA 2014, p. 2262, concl. G. Dumortier ; CE Ass., 21 mars 2016, Société Fairvesta International GmbH, n° 368082, n° 368083 et n° 368084, AJDA 2016, p. 717, chron.). En d’autres termes, l’ensemble de prescriptions internes ainsi imposées par le contenu de l’algorithme autant que par son paramétrage et par ses conditions d’application constitueraient des lignes directrices (Boudinar-Zabaleta, A., « Algorithmes et lignes directrices. Réflexions sur la codification automatisée des motifs des décisions administratives », Dr. Adm. 2019, n° 4, étude n° 7). Si cette qualification s’applique sans grande difficulté aux agents – qui ne sont pas placés dans la même situation que des usagers tant au regard du recours contre les mesures d’organisation du service qu’à celui de la nature des mesures que leur auteur peut prendre –, elle est plus délicate s’agissant de traitements algorithmiques appliqués aux usagers, dont les fondements juridiques seront à la fois de valeur plus élevée et d’un contenu plus précis, en raison de la protection des données personnelles impliquées.
La logique des réponses contentieuses du juge administratif est cependant claire : l’algorithme lui-même n’est saisi que de façon indirecte, comme un objet factuel soumis à certaines obligations de forme et de procédure ou capable de produire des conséquences sur les intérêts en présence. Il n’est pas un acte mais un instrument de la prise de décision. Pour l’instant, il est dépourvu de toute autonomie dans la procédure contentieuse : le juge administratif, par exemple, n’a pas accepté les demandes d’expertise dans le contentieux des ordinateurs et logiciels de vote et n’a pas jugé nécessaire d’entrer dans le contenu des algorithmes dans les contentieux précédemment cités. Si un algorithme avait pour effet de conduire à des décisions ne respectant pas les principes d’égalité et de non-discrimination par exemple, il ne serait pas nécessaire de prouver le biais technique, mais d’en constater statistiquement les effets. Déjà aujourd’hui, si une autorité administrative se fonde sur les productions d’un algorithme pour caractériser des faits menant à sa décision, il suffit pour le juge que ces productions passent le test de la cohérence et de la non-contradiction (CAA Paris, 9e ch., 11 févr. 2022, 20PA04263). Il s’agit là en quelque sorte d’une boîte noire, dans laquelle les acteurs juridiques n’ont pas d’intérêt à entrer. Il convient donc d’éviter de survaloriser l’algorithme ou de le personnifier en lui attribuant une autonomie dans la production juridique (sur cette tendance, V. Duclerq, J.-B., « Le droit public à l’ère des algorithmes », RDP 2017, p. 1401 ; Barraud, B., « Les algorithmes au cœur du droit et de l’État postmoderne », Revue Internationale de droit des données et du numérique, 2018/4, p. 37-52). L’algorithme n’est pas le pendant électronique des êtres physiques dotés de sensibilité, du moins pas tant que « l’IA forte » n’est pas devenue une réalité quotidienne.
2. Le contrôle juridictionnel des actes issus des algorithmes
Dans la mesure où l’usage d’algorithmes s’inscrit dans un processus de production d’actes administratifs dont certains peuvent être des décisions, deux théories classiques du contentieux administratif peuvent être a priori mobilisées. La première concerne la place de l’algorithme dans le processus ainsi que le chemin contentieux permettant de l’atteindre par un recours : elle réside dans la théorie des opérations complexes. La seconde concerne la façon dont l’auteur d’une décision administrative prend celle-ci au vu des éléments de préparation aptes à la justifier : elle est soumise à la règle de l’examen particulier des circonstances.
La théorie des opérations complexes, dont la méconnaissance est d’ordre public (CE, 24 mars 1999, Commune de Grézillac, Rec. p. 971), est une dérogation au principe d’irrecevabilité des exceptions d’illégalité fondées sur une décision réglementaire devenue définitive. Lorsqu’il existe une chaîne de décisions dont les premières sont les supports nécessaires des dernières, la théorie des opérations complexes autorise l’utilisation de l’exception d’illégalité de la décision initiale et des décisions intermédiaires devenues définitives à l’appui du recours exercé contre la décision finale tant qu’elle est attaquable. En sont des exemples classiques la phase administrative de l’expropriation, les concours de recrutement d’agents publics, et par assimilation le recouvrement des créances publiques ; mais il en est de même de champs moins étendus comme les opérations de conclusion d’un contrat ou de création de zones particulières d’urbanisme. Dans l’hypothèse où serait caractérisée la production par l’algorithme de décisions intermédiaires, nécessaires au processus et spécialement prises en vue d’une décision finale, cette dernière constituerait le meilleur point d’entrée du contentieux.
La règle de l’examen particulier des circonstances consiste en ce qu’une autorité administrative ne puisse prendre une décision non-réglementaire qu’à l’issue d’un examen effectif et exhaustif des données personnalisées de chaque dossier (CE, 7 août 1920, Secrettant, Rec. p. 853). Les circulaires comme les lignes directrices peuvent organiser l’exercice du pouvoir de décision discrétionnaire, elles ne peuvent pas lui donner un fondement impersonnel autorisant des décisions mécaniques ou stéréotypées. La prise de décision à l’issue de processus comprenant l’usage d’algorithmes doit donc garantir cet examen particulier. Or, il semble bien que ce soit le cas, dès lors que l’algorithme intègre justement des données propres à chaque affaire, qui permettent précisément de la distinguer d’affaires voisines. La règle de l’examen particulier des circonstances est en effet une règle de procédure et non de fond. En l’état actuel de la jurisprudence, elle oblige à un « cas par cas », mais elle n’impose pas que l’examen de chaque cas soit réalisé par un être humain, ni que des circonstances différentes dans deux dossiers doivent aboutir à des décisions finales différentes. Par contre, le fait que pour des situations apparemment identiques, la décision finale soit différente peut se trouver justifié par cette règle. Il serait même possible de dire que, dans une bonne mesure, l’usage d’algorithmes se situe formellement à l’appui de la règle de l’examen particulier des circonstances, pourvu bien sûr que leur conception informatique et leur nourrissage en data soit exempt de biais.
C’est donc plus en amont qu’il convient de poser la réflexion sur le contrôle juridictionnel des actes issus d’algorithmes. La question préalable, parce qu’elle est évidemment le pendant de la numérisation de la décision, est celle de l’auteur de l’acte (1). La question centrale, parce qu’elle interroge leur qualification normative, est celle de la nature même de la décision administrative issue de traitements algorithmiques (2).
2.1. L’auteur de l’acte pris à l’aide d’algorithmes
Dans la plupart des hypothèses envisagées et documentées en l’état de la technique, l’intégration des algorithmes au processus de décision n’est pas telle que la décision soit la résultante d’un processus entièrement automatisé, dépourvu d’intervention humaine, finalement endossée par l’autorité administrative compétente.
L’auteur de la décision administrative, acte juridique accessible au recours, demeure très majoritairement l’autorité compétente pour prendre l’acte. La production de l’algorithme est une simple étape d’élaboration de la décision. Tout dépend donc du résultat que livre l’algorithme. S’il s’agit de résultats élémentaires, de sélection fondée sur des probabilités et des statistiques, de la mise en place de contrôle ou de l’instruction du dossier, il faut considérer les algorithmes et leurs productions comme des actes préparatoires.
Mais si les algorithmes formalisent la décision finale elle-même, le processus peut s’apparenter à une consultation. Toutefois, à la différence du schéma classique de cette dernière procédure, l’autorité administrative n’a pas vraiment présenté un projet initial de décision. De plus, si l’autorité administrative s’écarte de l’avis produit par un logiciel, sa légitimité se trouvera très affaiblie par rapport à la puissance résultant des calculs exploratoires de l’algorithme. Il faudrait alors considérer que le résultat de la production algorithmique constitue une proposition, et que l’autorité administrative n’a pas d’autre alternative que de prendre la décision ou bien d’y renoncer. Et encore, dans cette configuration, lorsque l’algorithme a été appliqué à une demande formée par un pétitionnaire, faudrait-il envisager les cas prévus par les textes où l’absence de réponse vaut acceptation…
Le formalisme du droit administratif peut être respecté et il est respectable. Mais dans la réalité de ce dernier cas, tout se passe exactement comme si, au bout du compte, c’est bien l’algorithme qui prenait la décision : il en élabore le contenu par comparaison avec des bases de données et par des tests itératifs, en évaluant les conséquences et les risques. On pourrait donc voir une fiction juridique dans le fait de considérer l’autorité administrative compétente comme auteur de l’acte administratif édicté sur le fondement d’un algorithme (Pauliat, H., « La décision administrative et les algorithmes : une loyauté à consacrer », RDP 2018, p. 646). Cette fiction est d’autant plus forte que l’autorité administrative n’est pas non plus l’auteur de l’algorithme. Dans la plupart des cas, en effet, l’autorité administrative a recours, pour l’élaboration et la fourniture de ces logiciels, à des opérateurs privés, suivant des formules contractuelles qui peuvent laisser subsister la propriété intellectuelle de l’algorithme à l’entreprise fournisseuse. Certains analystes y voient un affaiblissement des compétences régaliennes des autorités administratives (Duclerq, J.-B., « Les effets de la multiplication des algorithmes informatiques sur l’ordonnancement juridique », Communication Commerce électronique n° 11, nov. 2015, étude 20). Un de plus, pourrait-on dire, d’un degré peut être différent, mais d’une nature identique à celui constaté récemment par la multiplication des marchés confiant aux grands cabinets de conseil internationaux des activités ressortissant traditionnellement du travail des cabinets ministériels et des directions d’administration centrale. Mais on peut aussi identifier à cette occasion la promotion d’une quasi-normativité des algorithmes, une forme de droit souple, au profit de ces opérateurs (Marique, E., Strowel, A., « Gouverner par la loi ou les algorithmes : de la norme générale de comportement au guidage rapproché des conduites », Dalloz IP/IT, n° 10, 2017, p. 517).
2.2. La décision administrative issue d’un traitement algorithmique
(Pour une vision d’ensemble, V. Cluzel-Métayer, L., « The Judicial Review of the Automated Administrative Act », European Review of Digital Administration and Law, 2020, vol. 1, 1-2, p. 101)
Une première question possible est celle de savoir si la décision administrative finale résulte véritablement de la volonté de son auteur (Auby, J.-B., « Le droit administratif face aux défis du numérique », AJDA 2018, p. 835). Si en effet un acte juridique est un acte manifestant la volonté de son auteur de produire des effets de droit, encore faut-il qu’il existe un lien direct entre l’auteur et l’acte, ou en d’autres termes que l’acte soit imputable à son auteur. Une réponse peut être tentée en éliminant d’abord la grande majorité des cas où les algorithmes constituent, en cours de procédure, une aide à la décision, mais où il est patent qu’ils ne produisent pas une décision formalisée, précise et particulière. Il s’agit par exemple des secteurs où sont utilisés des algorithmes prédictifs. En revanche, lorsque la production de l’algorithme consiste en une affectation à une institution, en une attribution de subsides ou de prestations en nature, qui plus est, à terme, au moyen d’algorithmes auto-apprenants dont la traçabilité du raisonnement n’est plus vraiment réalisable, la volonté de l’auteur n’est pas, en fait, exprimée en même temps que se concrétise le contenu de la décision.
Cela ne signifie pas pour autant que cette volonté n’existe pas. En effet, il est possible de considérer que cette volonté a été exprimée par anticipation, dès lors que l’autorité administrative a pris, par une mesure d’ordre intérieur, une décision d’organisation des services qui consiste à appliquer un algorithme dont on sait que, par construction, il conduit sans autre intervention humaine à la formulation complète d’une décision précise et individualisée. C’est la raison pour laquelle, même lorsque l’algorithme produit une décision finale quasi-automatique, il n’est pas nécessaire de se lancer dans une révision du cadre de définition de l’acte administratif pour le fondre dans une notion plus floue de « mode opératoire » (Ce que préconise Plessix, B., Droit administratif général, LexisNexis, 2020, n° 1008).
L’existence de la décision et sa légalité ne sont donc pas menacées, mais il va de soi que l’autorité administrative doit alors assumer les conséquences de ses choix en termes de responsabilité si l’application des algorithmes mène à des décisions inappropriées et dommageables, ou irrégulières. Par ailleurs, le statut de cette décision de recourir de manière générale et impersonnelle à une procédure de production d’actes administratifs formalisés au stade final par l’algorithme seul est délicat. Il s’agit par nature d’une décision réglementaire, qui est aussi interne et relève de l’organisation du service. Force est de constater toutefois que dans la plupart des cas, en raison du régime juridique applicable aux données traitées (ou au traitement de données), ces décisions sont fondées sur un arrêté et un décret qui les autorisent.
Mais au-delà de la forme, il ne faut pas négliger que ces actes, choisissant des algorithmes de décision et constituant une partie de la base légale de la décision finale, ont un contenu réglementaire qui ne se limite peut-être pas à des procédures et prescriptions voulues par l’autorité administrative compétente pour prendre la décision. Tout comme D.W. Schartum identifie dans la numérisation de la législation et le développement des systèmes de production automatisé de ses décisions d’application (« Law and algorithms in the public domain », Etikk i praksis. Nord J Appl Ethics 2016, p. 15-26. Disponible sur : http://dx.doi.org/10.5324/eip.v10i1.1973 consulté le 2 juin 2022) un niveau normatif caché, il apparaît que la constitution d’une catégorie d’experts informaticiens de la décision produit une interprétation propre de concepts qui passent ainsi du langage juridique au langage naturel puis au langage informatique.
Au passage, c’est donc une multitude de micro-normes implicites qui s’ajoutent aux prescriptions législatives et qui peuvent aboutir à ignorer l’illectronisme (« illettrisme numérique ») et à méconnaître tant l’accessibilité que l’égalité d’accès au service public, ce qui ne saurait être accepté de la part des autorités administratives. Le Conseil d’État a dû le rappeler fermement en posant qu’il incombe au pouvoir réglementaire, « lorsqu’il impose le recours à un téléservice pour l’obtention de certains titres de séjour, de prévoir les dispositions nécessaires pour que bénéficient d’un accompagnement les personnes qui ne disposent pas d’un accès aux outils numériques ou qui rencontrent des difficultés soit dans leur utilisation, soit dans l’accomplissement des démarches administratives ». A défaut qu’elles parviennent ainsi à un accès effectif, il faudra de toute façon « garantir la possibilité de recourir à une solution de substitution, pour le cas où certains demandeurs se heurteraient, malgré cet accompagnement, à l’impossibilité de recourir au téléservice pour des raisons tenant à la conception de cet outil ou à son mode de fonctionnement » (CE Sect., 3 juin 2022, n° 452798, 452806, 454716, Conseil National des Barreaux ; V. aussi CE Avis, 3 juin 2022, n° 461694, 461695, 461922, La Cimade et autres).
La plus radicale des décisions implicites, celle qui consiste à rendre impossible l’expression de la demande sous prétexte d’un système unique de collecte des données destiné à favoriser leur traitement automatisé, est donc exclue.
Conclusion
Les algorithmes peuvent ainsi être présentés comme insérés dans un ensemble normatif ou dans une autre approche appartenir à la catégorie du droit souple. Dans les deux cas, leur soumission au principe de légalité ne fait pas de doute, mais les modalités permettant de délimiter leurs contours et d’analyser la voie contentieuse pour les atteindre sont subtiles et encore à baliser.
Or, ce point est crucial puisque l’usage des algorithmes par les autorités administratives, tant dans des activités de prestation que de contrôle, ne pourra que s’amplifier dans la « Transformation publique », et ce selon deux axes. D’abord, les algorithmes semblent l’outil numérique le plus attractif pour les gestionnaires publics dans les situations de crise (V. à ce sujet la terrifiante perspective adoptée par Guillotin, V., Lavarde, C. et Savary, R.-P., Rapport d’information au nom de la délégation sénatoriale à la prospective sur les crises sanitaires et outils numériques, Répondre avec efficacité pour retrouver nos libertés, Sénat, session ordinaire 2020-2021, n° 673, 3 juin 2021). Ensuite ils s’insinuent dans les contacts quotidiens et répétitifs entre les particuliers et les autorités administratives. Indépendamment de la complexification et de l’accroissement de la densité normative qui en résulte et porte en germe des restrictions d’accès, de liberté et des atteintes potentielles aux droits fondamentaux produites par un contrôle total des corps et des comportements (comme dans le scoring social ou la reconnaissance biométrique généralisée dans les espaces publics), s’y ajoute le fait que les outils logiciels ou de communication utilisés conduisent les personnes publiques à recourir quasi exclusivement à des opérateurs privés pour la plupart de ces activités. La relation avec les particuliers s’en trouve fortement déséquilibrée au profit des autorités administratives qui maîtrisent et imposent des procédures de plus en plus contraignantes et intrusives, jusqu’à risquer de favoriser l’arbitraire par des décisions parfaitement préparées mais ne permettant aucune adaptation humaine.
Trois enjeux semblent orienter dorénavant l’avenir de la décision administrative lorsqu’elle s’appuie sur des algorithmes. Celui de la sécurité juridique, tout d’abord, qui commande que les outils numériques soient suffisamment fiables pour fonder des décisions prévisibles sans mettre à mal la confiance légitime des citoyens à l’égard des autorités publiques. Ensuite, celui de la réparation des dommages éventuellement causés par les algorithmes, grâce à un contrôle juridictionnel et à des principes d’indemnisation adéquats. Celui, enfin – question problématique à ce stade – du degré d’approfondissement du contrôle du juge administratif traditionnellement rétif à entrer dans les considérations d’expertise, au moment même où de développe, par le biais de l’éthique préventive, une conception régulatrice qui, dans ses arrangements, ne donne pas au droit administratif la valeur supérieure qui doit être la sienne pour encadrer toute l’activité administrative de la puissance exécutive, et constituer un gage essentiel de l’effectivité de la démocratie.
Table des matières