Au terme de cette journée et demi d’interventions et de débats, c’est à moi qu’il revient le redoutable honneur de m’efforcer de synthétiser des échanges qui ont été extrêmement riches et passionnants.
Le sujet des algorithmes publics est central. La raison en est simple : l’algorithme est au cœur de la rupture numérique qui est parfois présentée comme une troisième révolution industrielle dont les conséquences sur la société, sur l’économie, sur les individus ne sont pas toutes clairement appréhendées.
Pour un profane, la notion d’algorithme a pourtant longtemps exclusivement renvoyé à des souvenirs, parfois douloureux, d’enseignements de mathématiques, à un exercice de logique souvent désincarné dont les conséquences pratiques étaient en tout cas insoupçonnables. Mais aujourd’hui pour un juriste, mais aussi pour un économiste, un sociologue et plus généralement pour toute personne qui, sans être forcément férue de nouvelles technologies, s’intéresse à l’actualité et est attentif à son quotidien, l’algorithme est omniprésent. Il transforme les sciences, l’industrie, l’économie et la société comme cela a été dit à travers de nombreux exemples cités hier et aujourd’hui, qu’il s’agisse de smart cities – c’est-à-dire de villes intelligentes – de justice prédictive, de véhicules autonomes ou encore des algorithmes utilisés par les géants de l’industrie numérique.
Comme l’a rappelé ANNE BOYER 83 % des français ont entendu parler des algorithmes, ce qui démontre la prise de conscience par l’opinion publique de l’importance de cette notion. En effet, la révolution numérique conduit à repenser des notions aussi centrales que le travail, la propriété, la vie privée et – ce qui nous a intéressé durant cette journée et demi – l’action de gouverner et d’administrer.
Pourtant, en dépit de l’actualité brûlante du sujet, comme cela a été rappelé par plusieurs intervenants, cela fait des milliers d’années que l’humanité collecte des informations et qu’elle invente, utilise et transmet des algorithmes.
Pour le définir simplement, un algorithme c’est comme l’a énoncé dans sa communication JEAN-BAPTISTE DUCLERCQ un « ensemble d’instructions destinées à résoudre un problème en vue de parvenir à un résultat ». Dit autrement il s’agit d’un « procédé qui permet de résoudre un problème, sans avoir besoin d’inventer une solution à chaque fois »1.
Si les algorithmes s’appliquent aux objets mathématiques, ils ont également leur place dans l’ensemble des activités humaines. De fait, les premiers algorithmes sont apparus à l’aube des temps et leur utilisation – hier comme aujourd’hui – est une manifestation non pas de l’intelligence artificielle, comme on pourrait facilement le croire, mais de l’intelligence humaine et des progrès de l’humanité. Ainsi, le procédé découvert par le premier homme qui a compris que le frottement de deux silex entre eux produisait du feu est un algorithme. Cette méthode – cet algorithme – a ensuite été transmis, utilisé, peut-être même perfectionné par d’autres hommes, sans qu’il ait été nécessaire pour eux de réinventer un nouvel algorithme. De même, comme l’ont évoqué ANNE BOYER et JEAN-BERNARD AUBY, une recette de cuisine est un algorithme, c’est-à-dire un procédé utilisable et réutilisable à l’infini.
On pourrait même considérer que cette approche est trop large, puisque ce procédé n’est pas propre à l’homme. Ainsi, les fourmis utilisent-elles un algorithme très sophistiqué qui leur permet de s’orienter dans l’espace et de déterminer, cheminement après cheminement, par l’empreinte laissée par les phéromones, la piste la plus courte pour aller d’une source de nourriture vers la fourmilière2. Dans tous les cas, comme pour l’homme, la répétition d’une même tâche peut permettre à l’algorithme de se perfectionner. Mais ce qui fait la particularité de l’homme par rapport à ces petites fourmis, comme l’ont écrit Serge Abiteboul et Gilles Dworek, c’est la capacité à « verbaliser, à mémoriser, à transmettre, à comprendre et à améliorer nos algorithmes »3.
Si la méthode algorithmique existait donc bien avant qu’elle ne soit désignée par ce nom, le terme même d’algorithme est apparu des siècles avant l’ère du numérique. Il tire son étymologie du nom du mathématicien perse du IX° siècle Al-Khwarizmi, déformé d’après le grec ancien arithmós – qui veut dire nombre – et latinisé en Algoritmi4. En France, d’après le dictionnaire Littré, le terme apparaît au XIIIème siècle sous la forme « d’algorisme » ou « d’angorisme ». On trouve même une autre variante terminologique dans le Gargantua de Rabelais et plus précisément dans le chapitre intitulé « comment le seigneur de Humevesne plaidoie davant Pantagruel » – il est donc ici question de droit – dans lequel on peut lire « Ces enfans deviendront grands en algorisme »5.
Ce qui fait l’actualité de l’algorithme, ce n’est donc pas la nouveauté de ce procédé mais sa conjonction avec l’irruption dans le monde moderne des ordinateurs – au sens le plus large du terme c’est-à-dire également au sens d’objets dits « connectés » – et des programmes informatiques. Les technologies numériques permettent de stocker, de transformer et de traiter des données dans des quantités et à une vitesse de plus en plus considérable. Elles ont conduit à ce que le Conseil d’Etat dans son rapport annuel de 2014 consacré au numérique et aux droits fondamentaux appelle « la mise en données et à la mise en réseau générale du monde »6. Pour le dire autrement elle aboutit à la constitution de ce que Serge Abiteboul et Valérie Peugeot appellent une « terra Data »7 une « terre des données » qui marque l’avènement d’un nouveau modèle d’économie et de société.
Le droit, évidemment, ne saurait rester en marge de ces évolutions. L’Etude annuelle du Conseil d’Etat pour 2014, mais également celle de 2017 coordonnée par Timothée Paris dont le titre est « puissance publique et plateformes numériques : accompagner l’ubérisation » l’attestent largement. En atteste également un intérêt récent mais de plus en marqué de la doctrine universitaire : les publications et les colloques sont nombreux, en droit public bien sûr, mais également, comme l’a évoqué EMMANUEL NETTER en droit privé à travers notamment des problématiques de propriété intellectuelle et surtout de secret des affaires.
A la jonction entre le droit privé et le droit public, les problématiques liées aux données personnelles à leur exploitation économique ainsi qu’à leur protection ont été évoquées par ANNE-CLAIRE MANSION et ces problématiques à l’évidence sont très loin d’être résolues.
Toutes les études, qui peuvent être très diverses par leur objet, présentent il me semble un point commun : elles insistent sur la nécessité pour les pouvoirs publics de mieux appréhender les innovations technologiques et leurs incidences sur les droits fondamentaux.
Il était pour ainsi dire impossible d’épuiser en un seul colloque toutes les problématiques juridiques induites par ce changement de paradigme économique et social, qui plus est dans un contexte extrêmement évolutif. C’est là que réside tout l’intérêt d’un cycle de colloques annuels qui pourront constituer autant de points de rencontre entre les juristes et les scientifiques, entre les universitaires et les praticiens, concernant des problématiques à la fois mouvantes et transversales.
Mais si le droit appréhende l’ensemble de ces problématiques, « la fabrique du droit »8 pour paraphraser le titre de l’ouvrage célèbre de Bruno Latour, est elle-même influencée par ces nouvelles technologies et c’est là le sujet qui est au cœur du présent colloque.
La redoutable efficacité des algorithmes conduit naturellement à s’interroger sur la place de l’humain dans la prise de la décision publique. Le décideur public n’est finalement, pour détourner la formule célèbre chez les publicistes d’Edouard Laferrière, qu’un « homme avec ses faiblesses, ses passions, ses imprudences » ou à tout le moins « un administrateur plus ou moins sujet à erreur »9. A l’opposé, l’algorithme, alimenté par les big data, paré des vertus de la rationalité mathématique, conduirait à prendre les décisions les plus rationnelles. Comme l’a évoqué PHILIPPE COSSALTER, cette problématique avait été évoquée dès 1948 par le père Durbarle avec la notion de « machine à gouverner »10. On peut très bien ici se présenter tous les dangers qu’une telle dérive scientiste représenterait pour la démocratie.
Comme l’ont démontré les débats qui ont eu lieu hier ou aujourd’hui, il est toutefois illusoire d’opposer intelligence humaine et intelligence artificielle.
En effet, la rupture numérique est un fait inéluctable. Pour un décideur public, ne pas recourir aux algorithmes et aux nouveaux outils numériques, relèverait de la même démarche que celle des luddites au début du XIX° siècle qui avaient voulu s’opposer à la première révolution industrielle en détruisant les nouvelles machines.
A l’opposé, toutefois, il est difficilement envisageable et il n’est surtout pas souhaitable de substituer l’intelligence artificielle à l’intelligence humaine, même s’il existe un risque réel de « dictature invisible du numérique » ((Marc Dugain, Christophe Labbé, L’homme Nu, la dictature invisible du numérique, Pocket 2017.)) lié à l’asymétrie de l’information, comme cela a été exposé par FRANCOIS PELLEGRINI. C’est ce qu’on appelle aussi parfois en sciences politiques le « techno-fascisme » ((Sur ce point V. Notamment R. Gori, L’individu ingouvernable, LLL 2015.)).
En revanche, si le thème de la révolte des machines est connu, il s’agit toujours avant tout d’un thème de la littérature et du cinéma de science-fiction. Comme l’a récemment affirmé Yann Le Cun qui est le directeur du laboratoire de recherche en intelligence artificielle de Facebook, il est possible d’affirmer que « les scénarios à la Terminator sont très improbables »11. Alors certes, il existe aujourd’hui ce qu’on appelle le « machine learning », le « deep learning », c’est-à-dire des algorithmes de plus en plus complexes, qui se perfectionnent eux-mêmes et qui ont l’ambition de reproduire les modes de fonctionnement de l’intelligence humaine par la création de réseaux de neurones artificiels. Cependant, l’intelligence artificielle n’est pas capable, en l’état actuel de la science, de se substituer à l’intelligence humaine. La question pourra toutefois se poser à moyen ou à long terme et elle rendra encore plus complexe la problématique de la place de l’humain du point de vue de la maîtrise et de la connaissance de l’algorithme, mais également dans le cadre du processus décisionnel. Mais comme cela a été dit par plusieurs intervenants, sur un plan matériel, les ordinateurs ne sont pas encore suffisamment puissants pour se substituer à l’intelligence humaine. Surtout, d’un point de vue plus théorique, les humains apprennent par interaction, ce que ne savent pas faire les machines et comme l’affirme Yann Le Cun « tant qu’on n’y arrivera pas, on n’aura pas de machines vraiment intelligentes »12
L’algorithme, répétons-le, comme les machines qu’il alimente, et les programmes qui l’exploitent, est une création humaine. Autrement dit, à moins de verser dans l’anthropomorphisme, et d’imaginer comme JEAN-BAPTISTE DUCLERCQ « une personne publique artificielle » il n’y a pas de malveillance de l’algorithme pas plus qu’il n’y a de responsabilité de l’algorithme. La responsabilité c’est d’abord celle du concepteur de l’algorithme en tant qu’objet mathématique et celle du concepteur du logiciel qui est – comme l’a rappelé FRANCOIS PELLEGRINI – l’expression formelle du processus algorithmique. C’est surtout celle de l’utilisateur de l’algorithme, c’est-à-dire de celui qui est responsable de son traitement. Comme l’a très bien démontré ANNE BOYER « l’algorithme ne peut pas être plus raciste, injuste, sexiste, qu’une machine ». En revanche, comme l’a exposé MELANIE DULONG DE ROSNAY, selon les choix politiques qui procèdent à son utilisation, l’algorithme peut aboutir à une prise de décision présentant ces caractéristiques néfastes
Du point de vue de la responsabilité juridique au sens large, qu’elle soit administrative, civile ou pénale, des problèmes redoutables ne manquent déjà pas de se poser dans ce domaine comme cela a été évoqué à de nombreuses reprises, par exemple par THIERRY LAMBERT à propos des véhicules automobiles autonomes. Du point de vue de la responsabilité pécuniaire, plus précisément, la question se posera nécessairement de déterminer le régime de responsabilité applicable en cas de dommage lié à l’exécution d’un algorithme. On pourrait envisager ici plusieurs solutions possibles. PHILIPPE COSSALTER a évoqué la difficulté qui consisterait à contraindre l’administré à devoir démontrer une faute. Il faut donc plutôt envisager une responsabilité sans faute de l’administration voire une responsabilité pour faute présumée et il me semble qu’à partir de là trois pistes au moins pourraient être envisagées.
Il pourrait s’agir, tout d’abord, et c’est la piste privilégiée par PHILIPPE COSSALTER, d’un régime de responsabilité sans faute fondé sur la solidarité nationale : dans ce cas l’Etat serait automatiquement responsable, puis il pourrait exercer une action récursoire contre son agent défaillant voir contre le concepteur de l’algorithme. A mon avis, une inspiration pourrait être trouvée ici dans les règles applicables en matière de réparation des accidents thérapeutiques : il s’agirait d’abord de déterminer si le dommage dont la réparation est demandée est lié à un aléa, auquel cas la solidarité nationale pourrait jouer – mais jusqu’à quel montant ? – ou à une faute, charge alors pour l’Etat de se retourner contre son auteur.
Une autre piste pourrait être trouvée dans la notion de défaut d’entretien normal qui existe en matière de dommages de travaux publics. On pourrait envisager que le défaut de conception ou que le défaut d’utilisation normale de l’algorithme soit présumé, tout en laissant la possibilité, pour l’administration, de renverser la charge de la preuve.
Enfin, une dernière solution pourrait consister à s’inspirer du régime de la directive européenne du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux13. Ce texte, déjà ancien, et dont la transposition en droit français a soulevé de nombreuses difficultés, mentionne que « seule la responsabilité sans faute du producteur permet de résoudre de façon adéquate le problème, propre à notre époque de technicité croissante, d’une attribution juste des risques inhérents à la production technique moderne ». Cette solution pourrait être efficacement combinée avec la jurisprudence Marzouk14 du Conseil d’Etat qui admet le principe de la responsabilité sans faute de l’Etat de l’utilisateur de produits défectueux qu’elle a sous sa garde, solution dont on rappellera qu’elle a été jugée conforme au droit de l’Union européenne par la Cour de justice15.
De telles solutions appliquées aux algorithmes – parce que leur utilisation engendre de nombreux risques – présenteraient à mon avis deux avantages. D’une part, elles éviteraient aux victimes d’un défaut de conception ou d’une mauvaise utilisation d’un algorithme, de devoir rapporter la preuve d’une faute difficile à identifier particulièrement lorsqu’il est recouru à des méthodes de « deep learning ». D’autre part, de telles solutions inciteraient les concepteurs et les utilisateurs d’algorithmes à redoubler de vigilance dans le cadre de leur action.
Du point de vue des décideurs publics, justement, il me semble que ces obligations se situent à deux niveaux différents, et cela recouvre, comme cela a été évoqué par JEAN-BAPTISTE DUCLERCQ, les deux propriétés des algorithmes : les instructions d’une part, les résultats d’autre part.
La question des instructions, d’abord, se situe en amont du processus décisionnel, au niveau de la conception de l’algorithme et de l’évaluation de ses effets.
Je ne veux pas ici seulement parler de la conception de l’algorithme d’un point de vue technique. Ces questions ont été très clairement exposées par Mme BOYER et c’est là le domaine réservé aux informaticiens, tant il est difficile pour un administrateur de comprendre le langage utilisé pour la conception des algorithmes, ce qui relativise d’ailleurs l’intérêt de les assimiler à des documents administratifs et de rendre leur code source communicable aux administrés comme l’exige la Commission d’accès aux documents administratifs dans un avis du 23 mai 201616.
Je songeais surtout ici à l’obligation qui doit être faite à l’administration de comprendre l’algorithme, de définir précisément la tâche que l’on veut lui assigner et de bien mesurer les effets et les résultats qu’il peut produire. Cette obligation nécessite, de la part du décideur public, une attention constante et un dialogue avec les concepteurs de l’algorithme. Elle exige, de sa part, un minimum de compréhension de l’algorithme.
La mise en place d’expérimentations, la réalisation d’une étude d’impact, a priori, ou d’un audit, a posteriori, pourrait limiter les risques de dysfonctionnements.
MELANIE DULONG DE ROSNAY a aussi rappelé que certains auteurs voudraient assimiler du point de vue de leur régime juridique les algorithmes aux produits pharmaceutiques, ce qui conduirait à exiger que les algorithmes fassent l’objet d’une autorisation de mise sur le marché. La solution est intéressante mais je ne suis pas sûr qu’elle soit toujours pertinente pour un objet dématérialisé et dont la conception et la réalisation peut échapper aux autorités étatiques nationales.
Ces solutions, en tout cas, ne semblent envisageables que concernant les algorithmes dits déterministes, qui consistent à automatiser une procédure, lesquels sont relativement simples à concevoir, leur fonctionnement, comme l’a dit GIORGIO MANCOSU, dépendant plus de variables juridiques et organisationnelles que de variables informatiques.
En revanche la détection des risques liés à l’utilisation des algorithmes est autrement plus délicate pour ceux qui reposent sur le « deep learning », autrement dit sur l’apprentissage automatique. Ces algorithmes se perfectionnement eux-mêmes jusqu’à pouvoir échapper à leurs concepteurs. En effet, comme l’a dit ANNE BOYER – si je l’ai bien suivie – aucune technique actuelle n’est capable de demander au système de fournir une explication claire pour une décision donnée en application d’un algorithme.
Quoi qu’il en soit, comprendre l’algorithme ne veut pas dire que l’administrateur doit être capable de maîtriser leurs techniques d’élaboration. En revanche, comme le démontrent les exemples de dysfonctionnements qui ont été cités hier et aujourd’hui, il doit être capable de détecter en amont toutes les difficultés concrètes que peut générer l’utilisation des algorithmes. Cet objectif semble en tout cas atteignable pour les algorithmes déterministes. L’administrateur doit pouvoir également – j’insiste sur ce point – expérimenter l’algorithme, ce qui a été fait par exemple en matière de justice prédictive qu’il serait plus juste de dénommer, comme l’a dit JEROME DUPRE, justice quantitative. La justice dite prédictive va consister à utiliser des algorithmes qui analysent les décisions rendues par les tribunaux de façon à anticiper la solution d’un litige. A partir des paramètres sélectionnés par l’utilisateur, le logiciel de justice prédictive opère un tri dans les décisions de justice et livre un pronostic sur la base de statistiques.
Cette expérience, menée au printemps 2017, par des magistrats de la cour d’appel de Rennes, s’est avérée peu concluante, notamment parce que le logiciel privilégie une approche statistique au détriment d’une analyse qualitative. Mais l’échec de cette expérimentation va conduire nécessairement les concepteurs de l’algorithme à le perfectionner pour en faire un outil plus fiable à la disposition des juges administratif et judiciaire, en privilégiant, comme cela a été dit par MARC CLEMENT, une approche qui doit être plus sémantique que statistique, qui soit plus propice en tout cas à exploiter la structure des décisions de justice. Sous cette condition, les juges et peut-être plus encore les avocats disposeront ici d’un outil redoutable dans le débat contradictoire. Il est possible aussi comme cela été dit par ANDRE MOINE, avec beaucoup de nuances, que la prédiction d’un algorithme jurisprudentiel pourra dissuader des requérants potentiels de saisir la justice, ou au moins les conduire à rechercher une issue non contentieuse au litige. Se pose également dans ce cas le problème du respect du principe du procès équitable et de la qualité du procès.
En dehors de la question de la conception de l’algorithme, l’administration doit également être capable de lutter contre les cyber-attaques. Comme l’a exposé JEAN-YVES MARION, les systèmes d’information et les algorithmes sont aujourd’hui très largement interconnectés. Les infrastructures logicielles étant vulnérables, elles subissent régulièrement ce type d’attaques. Si les conséquences de ces attaques sont variées, elles consistent de plus en plus, comme cela a été dit, en des attaques ciblées qui ont par exemple pour objet de modifier l’opinion d’un groupe de personnes, de falsifier des données, ce qui peut influer sur un processus électoral mais également, potentiellement, sur les décisions prises par les décideurs publics. Là encore ce n’est pas l’algorithme qui est malveillant, mais celui qui l’utilise ou celui qui le détourne. Il est donc absolument impératif pour les pouvoirs publics de se protéger de ces attaques.
Les obligations de l’administration concernent aussi le résultat produit par l’algorithme, c’est-à-dire le processus décisionnel lui-même.
Il est ici intéressant de rappeler que les illustrations de dysfonctionnements des algorithmes sont relativement nombreux. Il apparaît toutefois qu’ils sont tous imputables à une erreur humaine qui est moins celle des informaticiens que celle des décideurs publics. On pense ici au système « Louvois », c’est-à-dire au logiciel de paie de l’armée française, à la plate-forme nationale des interceptions judiciaires, mais aussi et surtout au système admission post-bac – dit « APB » – du nom de la plate-forme numérique à partir de laquelle un bachelier pouvait formuler des candidatures en vue d’intégrer la première année d’une formation d’enseignement supérieur. Dans son rapport publié au mois d’octobre 2017, la Cour des comptes avait pourtant relevé que l’algorithme lui-même ne souffrait d’aucune erreur notable de programmation. Comme l’a résumé Cédric Villani dans une tribune publiée dans Le Monde « ce qui a buggé dans APB ce n’est pas le logiciel mais c’est bien l’Etat »17. Autrement dit, ce qui a posé problème, ce n’est pas la conception de l’algorithme ou du logiciel, mais c’est le fait que l’Etat n’a pas voulu assumer les responsabilités qui lui incombent. C’est bien ce qui a été décrit par GIORGIO MANCOSU à travers l’exemple italien du portail POLIS qui est chargé de gérer la mobilité des enseignants au moyen d’un algorithme d’affectation comparable à celui utilisé par le système APB. Dans cet exemple également, l’algorithme a échappé à l’administration et à son cadre légal.
Ces différents exemples démontrent que même si l’algorithme peut se substituer au décideur public, dans le sens où il aboutit à une décision, ce décideur doit demeurer vigilant, en amont comme on l’a dit, dans la conception même de l’algorithme, mais également en aval au stade de la décision. En effet, le recours aux algorithmes met en cause à la fois non seulement les données personnelles des individus mais également la liberté d’appréciation et l’indépendance du décideur public. Or, il est essentiel que celui-ci demeure libre de pouvoir interpréter le résultat donné par les algorithmes ainsi que les conséquences à en tirer.
S’il devait en aller autrement, cela reviendrait à figer les règles de droit et cela irait à l’encontre de l’idée que chaque administré a le droit à un examen individuel de sa situation par l’autorité administrative compétente, ce qui est en principe essentiel en droit administratif. Mais rappelons encore, comme l’a dit JEAN-BERNARD AUBY, que la mise en oeuvre de ces principes apparaît délicate pour des algorithmes non déterministes.
C’est vrai en droit mais c’est également vrai ailleurs. Je reviens à la question de la recette de cuisine : l’exécution à la lettre d’une recette peut aboutir à des résultats remarquables, mais des délices culinaires comme la tarte tatin et les bêtises de Cambrai sont également nés d’erreurs et de d’approximations. En médecine, la découverte de la pénicilline par Alexander Fleming est ue à la distraction de celui-ci et à l’oubli des cultures sur lesquelles il travaillait dans son laboratoire.
Du point de vue du droit administratif, la recherche d’un statut juridique des algorithmes publics qui prendrait en compte ces impératifs, pourrait, me semble-t-il, s’inspirer utilement de la jurisprudence du Conseil d’Etat consacrée à cette catégorie d’actes administratifs qu’on appelait à l’origine des directives et qui sont aujourd’hui qualifiés de lignes directrices18. C’est que ce qui a été dit par PHILIPPE COSSALTER.
Les lignes directrices sont des documents d’orientation dotés, certes, d’une valeur fortement incitative à l’égard des agents qui en sont destinataires, mais non absolument impérative puisqu’il leur est permis d’y déroger.
N’est-ce pas ici la juste place qui devrait être attribuée aux algorithmes publics ?
Il faut ici rappeler que les algorithmes publics sont bien des documents administratifs et que depuis la loi n°2016-1321 du 7 octobre 2016 pour une République numérique ils font l’objet de dispositions spécifiques qui figurent à l’article L. 311-3-1 du Code des relations entre le public et l’administration. Ces dispositions ont été complétées par le décret n° 2017-330 du 14 mars 2017 qui définit les droits des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique créant les articles R. 311-3-1-1 et R. 311-3-1-2 du même code.
La mise en oeuvre effective de ces exigences par l’administration est susceptible de poser un certain nombre de difficultés, comme cela a été dit par PHILIPPE COSSALTER.
Ceci étant il me semble qu’on peut déduire de ces dispositions, mais également du Règlement général des données personnelles (RGPD)19, un droit à ne pas faire automatiquement l’application d’un algorithme, étant précisé, comme cela a été dit par EMMANUEL NETTER, que ce droit pourrait être encore renforcé par le projet de loi actuellement en débat relatif à la protection des données personnelles. Rappelons toutefois que dans le RGPD, écarter les traitements automatisés est possible, mais seulement si le destinataire de la décision le demande20.
Les lignes directrices, quant à elles, sont classées par le Conseil d’Etat dans son rapport public de 2013 consacré au droit souple, dans une catégorie intermédiaire entre le droit souple et le droit dur. Pour le dire autrement, comme l’a écrit Delphine Costa, ces actes ont une « force mi-impérative mi-référentielle »21. Ils n’ont pas en principe de caractère impératif, et ils ne peuvent donc faire l’objet d’un recours pour excès de pouvoir. En effet, le décideur public a toujours la possibilité, lorsqu’il prend des décisions individuelles, de s’écarter de ces lignes directrices, soit pour des motifs d’intérêt général, soit pour des motifs liés à la personne visée par cette décision. En revanche, les lignes directrices sont opposables à l’administration et elles sont invocables par elle. Plus précisément, si l’administration peut fonder légalement une décision sur des lignes directrices, l’administré peut les invoquer devant le juge administratif à l’appui d’un recours contre une décision individuelle, au motif que sa situation personnelle ou l’intérêt général aurait justifié soit l’application soit une dérogation aux lignes directrices.
Ce régime juridique me semble adapté aux algorithmes publics – en tout cas au moins aux algorithmes déterministes – pour deux raisons.
D’une part, on rappellera que le Code des relations entre le public et l’administration impose que les décisions individuelles indiquent à leur destinataire qu’il a été recouru à un traitement algorithmique. Cette mention doit aussi indiquer que l’administré peut obtenir « la communication des règles définissant ce traitement et des principales caractéristiques de sa mise en œuvre »22. Il s’agit ici de rendre effectifs deux principes essentiels et somme toute assez récents en droit public : le principe de transparence et le principe d’intelligibilité et d’accessibilité de la norme juridique. Le but est aussi peut-être de permettre à l’administré de disposer d’outils lui permettant de contester efficacement ces décisions individuelles et éventuellement remettre en cause les biais méthodologiques et les préjugés qui ont été évoqués par ANDRE MOINE à propos des algorithmes jurisprudentiels. Le cas échéant une expertise pourrait être diligentée par le juge pour détecter d’éventuelles erreurs commises dans le code source.
Ces considérations ne dispensent par les pouvoirs publics d’une action en amont par la recherche de la mise en oeuvre de ce que EMMANUEL NETTER a appelé démocratie algorithmique, notion plus restreinte que celle de gouvernance algorithmique évoquée par FRANCOIS PELLEGRINI. Il s’agirait ici d’associer le public à la conception même de l’algorithme, par exemple, au moyen d’une enquête publique.
D’autre part, et enfin, la mise en place d’un régime contentieux inspiré de celui des lignes directrices imposerait à l’administration ne pas démissionner de son pouvoir décisionnel. Cela paraît essentiel dans un système démocratique. Certes, le traitement automatisé est possible et on n’est donc pas tout à fait dans le même cas que celui des lignes directrices. Ceci étant, comme cela a été rappelé par FRANCOIS PELLEGRINI, l’administré peut demander d’être soustrait à ce traitement. La question se pose alors de savoir quelles seront les raisons invoquées par l’administré : l’intérêt général peut-être, la situation particulière du destinataire de la décision certainement et on rejoint ici le régime juridique des lignes directrices.
En conclusion, ces éléments pourraient contribuer à répondre au vœu récemment formulé par le vice-président du Conseil d’Etat lors d’un colloque consacré à la justice prédictive, selon lequel « L’intelligence artificielle et l’intelligence humaine doivent se combiner et se renforcer mutuellement »23. Il me semble que c’est là l’objectif qui ne doit en aucun cas être oublié : l’algorithme doit demeurer un outil d’aide à la décision par l’administrateur et aucun cas se substituer à l’administrateur lui-même. Mais peut-être ne s’agit-il déjà que d’un vœu pieux.
- S. Abiteboul, G. Dworek, Le temps des algorithmes, éd. Le Pommier 2017, p.11. [↩]
- Ibid. p. 17. [↩]
- Ibid. p. 18. [↩]
- https://www.britannica.com/biography/al-Khwarizmi. [↩]
- Les éditions de Londres.com, p.120. [↩]
- La Documentation française 2014, p.42. [↩]
- S. Abiteboul, V. Peugeot, Terra Data, le Pommier 2017. [↩]
- La fabrique du droit, une ethnographie du Conseil d’Etat, éd. La découverte 2004. [↩]
- Conclusions sur TC, 5 mai 1877, Laumonnier-Carriol, Rec. n°95 p. 437 [↩]
- Une nouvelle science : la cybernétique – Vers la machine à gouverner : Le Monde, 28 décembre 1948. [↩]
- Le Monde, 23 septembre 2017. [↩]
- Ibid. [↩]
- JOCE n° L 210 du 07/08/1985 [↩]
- CE, 9 juillet 2003, n°220437, Assistance publique – Hôpitaux de Paris c. Marzouk : Rec. p. 338 ; AJDA 2003, p. 1946, note Deguergue ; JCP A 2003, 1897, note Chavrier. [↩]
- CJUE, 21 décembre 2011, n° C-495/10, Centre hospitalier universitaire de Besançon c. Dutrueux : AJDA 2012, p. 36, chron. Aubert, Broussy et Donnat ; D. 2012, p. 926, note Borghetti ; Europe 2012, 100, note Larché ; JCP A 2012, 2078, note Oberdorff. [↩]
- http://www.cada.fr/avis-20161989,20161989.html. [↩]
- Le Monde, 16 décembre 2017. [↩]
- CE, 19 septembre 2014, n°364385, Jousselin du 19 septembre 2014 : AJDA 2014, p. 2262, concl. G. Dumortier ; Dr. adm. 2014, 70, note J.-B. Auby ; JCP A 2014, act. 759, obs. F. Tesson ; JCP A 2014, act. 821, Libres propos P. Cassia. [↩]
- Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données. [↩]
- §71 : « un traitement de ce type devrait être assorti de garanties appropriées, qui devraient comprendre une information spécifique de la personne concernée ainsi que le droit d’obtenir une intervention humaine, d’exprimer son point de vue, d’obtenir une explication quant à la décision prise à l’issue de ce type d’évaluation et de contester la décision ». [↩]
- Des directives aux lignes directrices : une variation en clairs-obscurs : AJDA 2015, p. 806. [↩]
- CRPA, art. R. 311-3-1-1. [↩]
- http://www.conseil-etat.fr/Actualites/Discours-Interventions/La-justice-predictive. [↩]