L’arrivée de l’intelligence artificielle (IA) générative auprès du public ces dernières années a augmenté la tenue de discours polarisants où elle est parfois présentée comme un risque existentiel ou comme une technologie révolutionnaire. Or, il y a un écart flagrant entre ce type de discours et l’usage actuel de l’IA au sein de la fonction publique, voire en général. Loin d’une superintelligence, les applications actuelles sur les sites Web gouvernementaux prennent plutôt la forme de « robots conversationnels », d’algorithmes de détection de fraudes, d’automatisation de la prestation de services ou encore d’assistance au diagnostic médical[1]. Loin d’une révolution sociale, l’IA perpétue plutôt le statu quo, c’est-à-dire la marginalisation et la discrimination de certaines populations selon des critères de genre, de religion, d’ethnicité ou de classe socioéconomique.
En déployant ces algorithmes dans l’appareil administratif, l’État cherche à accroitre la productivité, à diminuer les coûts et à améliorer la qualité des services fournis, tout en réduisant les biais et en personnalisant les services. Cependant, l’intégration de l’IA dans l’administration publique québécoise demeure pour le moment limitée et peu transparente. Les gains envisagés avec l’aide de l’IA, quant à eux, s’articulent principalement du côté de la répartition du temps des fonctionnaires, en concentrant leur travail sur des tâches plus « humaines » et moins « mécaniques ». Toutefois, l’automatisation ne se limite pas à une simple redistribution du temps de travail, mais met en œuvre plutôt une transformation substantielle des responsabilités et des dynamiques du travail[2]. Les conceptrices et concepteurs des fonctionnalités des algorithmes occupent une place de plus en plus importante tandis que les autres employé·es se voient davantage relégués à des rôles de soutien, par exemple, en nettoyant les données entrantes ou en vérifiant les données sortantes[3]. En ce sens, bien loin d’affranchir les travailleuses et travailleurs des tâches fastidieuses, l’IA ancre davantage l’aspect répétitif du travail administratif. Cette transition s’inscrit dans une restructuration plus vaste des relations socioéconomiques du « capital algorithmique », où l’accumulation, le contrôle et la valorisation des données massives reconfigurent les dynamiques de pouvoir et les rapports sociaux vers une nouvelle économie politique[4].
Dans un tel contexte, il y a un véritable risque de tomber dans un « solutionnisme technologique[5] » qui réduit des problèmes sociaux et politiques complexes, comme le décrochage scolaire ou l’engorgement du système de santé, à des enjeux pouvant se régler à l’aide d’une application ou d’une technologie. Alors que les écoles publiques sont en piètre état, qu’une pénurie de professeur·es et une précarité généralisée persistent, le gouvernement se réjouit du potentiel de l’IA pour personnaliser l’apprentissage et repérer les élèves à risque de décrochage en temps réel, et il y investit plusieurs millions[6]. Ce genre de discours n’est pas sans conséquence. Il reflète la réorientation des valeurs ainsi que celle des fonds publics vers une « économie de la promesse[7] » profondément spéculative dont les retombées économiques sont principalement captées par les entreprises du secteur privé[8].
Outre ce premier piège, plusieurs enjeux découlent directement de l’adoption de l’IA dans les différentes sphères de la fonction publique, soit l’opacité des outils de prise de décision, l’aggravation des inégalités sociales et l’absence d’imputabilité.
L’enjeu de l’opacité
Pour des raisons techniques, les processus décisionnels algorithmiques sont difficiles, voire impossibles à établir. Cette opacité constitue, en quelque sorte, un problème dès le départ : comment évaluer qu’une « boite noire » se conforme aux normes et principes d’équité exigés de la fonction publique ? Comment garantir une reddition de comptes ? En ce sens, des enjeux légaux et techniques découlent de l’utilisation de l’IA et entrainent déjà des conséquences importantes.
L’opacité des outils décisionnels automatisés est problématique lorsque leur fonctionnement, voire leur usage, sont sous le sceau du secret commercial ou d’autres barrières légales à l’accès à l’information. Le développement de technologies d’IA par le personnel de l’administration publique est rarement envisagé en raison des coûts initiaux élevés et du manque d’expertise technique. C’est donc largement par appels d’offres ou par l’acquisition de systèmes clés en main que les divers ordres de gouvernement et les municipalités « modernisent » leurs opérations. L’approvisionnement en outils algorithmiques dont le fonctionnement est protégé par le secret commercial est maintenant devenu pratique courante[9]. Pourtant, l’incapacité de présenter le raisonnement derrière une décision générée par un algorithme pose des problèmes de conformité aux cadres normatifs de non-discrimination et d’imputabilité. Certains y voient la source d’une crise de la légitimité du rapport entre le gouvernement et les citoyens et citoyennes[10].
Dans le système judiciaire américain, les applications de l’IA soulèvent des questions sur le droit à un procès juste et équitable. Les juges utilisent couramment des outils algorithmiques pour appuyer leur verdict, mais ils le font à l’aveugle, en quelque sorte. Le logiciel intitulé COMPAS est peut-être le plus connu de ces outils. La Cour suprême du Wisconsin, dans State v. Loomis[11], a statué que l’utilisation de COMPAS sans en divulguer le fonctionnement ni aux juges ni aux appelants n’enfreignait pas le droit à un procès juste et équitable. À l’inverse, dans Michael T. v. Crouch[12], le tribunal a jugé que l’absence de standards vérifiables pour l’allocation de prestations médicales générées automatiquement par des algorithmes représentait de sérieux risques pour le droit à un procès juste et équitable. Ainsi, les personnes affectées ont vu leurs prestations médicales réinstaurées après avoir été coupées subitement par un algorithme dont aucun moyen ne permettait d’établir comment il calculait les indemnités.
De même, les Pays-Bas ont suspendu en 2020 le système de détection de fraudes SyRI dans les prestations sociales parce qu’il contrevenait aux droits de la personne. Les personnes touchées, toutes issues de quartiers défavorisés, n’étaient pas informées du fait que leur profil fiscal avait été trié et jugé frauduleux uniquement par un algorithme. Le fonctionnement de l’outil, quant à lui, était opaque et invérifiable autant pour le tribunal que pour le public[13]. Pour cette raison, l’utilisation de SyRI a été déclarée contraire à la loi. Le gouvernement australien a de son côté déployé Robodebt, un système automatisé de détection de fraudes. Banni en 2019, cet algorithme avait causé des dommages affectant, cette fois-ci, des centaines de milliers de prestataires qui se trouvaient contraints à contester des dettes qui leur avaient été attribuées par erreur[14].
Les administrations publiques canadienne et québécoise utilisent également ce type d’outils. À l’échelle fédérale, un système automatise le tri des demandes de permis de travail et fait progresser celles qui sont admissibles, tandis que les autres demeurent sous la responsabilité des agents de l’immigration[15]. Au Québec, l’utilisation du Système de soutien à la pratique (SSP) comme serveur mandataire soulève des préoccupations qui se sont accentuées en réaction aux « incohérences » produites par l’outil dans un dossier où un enfant a perdu la vie[16]. Ce système prédit la sévérité du risque que court un enfant dans son milieu à partir d’un formulaire de questions à choix multiples. Dans son rapport, Me Géhane Kamel insiste sur le fait que les évaluations générées par le SSP « ne doivent pas se substituer au jugement professionnel des intervenants ». Elle souligne d’ailleurs l’importance du contexte dans lequel se découlent des événements : pénurie de main-d’œuvre, budgets « faméliques » et charge de travail démesurée[17].
L’opacité des outils algorithmiques de prise de décision utilisés par des juges, des administrateurs et d’autres employé·es de l’État est un thème récurrent dans la littérature qui se penche sur l’intégration de l’IA à l’administration publique. Le besoin de transparence à cet égard est évident ; la loi et les directives administratives peuvent jouer ce rôle.
Dans l’État de Washington, le corps législatif a déjà reconnu cette problématique. Déposé en 2019 et désormais sous révision par le Sénat, le projet de loi SB 5356, 2023-2024[18], interdit les clauses de non-divulgation et autres obstacles à la transparence dans les contrats d’acquisition de systèmes décisionnels algorithmiques. En outre, tous les systèmes acquis ou développés au sein de la fonction publique doivent être inventoriés. L’inventaire enregistre des informations sur les données, l’objectif, la capacité générale du système, ses impacts et ses limitations, les évaluations de biais potentiels et les facteurs déterminant son déploiement (où, quand, et comment). Ce genre de descriptif doit être clair pour les utilisateurs et utilisatrices indépendamment de leur capacité à connaitre le langage du code.
Outre les obstacles légaux, les applications de l’IA peuvent être opaques aussi pour des raisons techniques. Même avec le code source, auditer un algorithme et expliquer son fonctionnement constituent des tâches laborieuses pour les experts, surtout en ce qui concerne l’apprentissage automatique, car il présente divers degrés d’opacité[19]. Si Robodebt était problématique, c’est en partie parce que l’outil était trop simple pour une tâche nécessitant beaucoup de nuance[20]. En revanche, une complexité accrue, bien que parfois préférable, compromet la capacité d’interprétation du fonctionnement d’un système. Cette tension, désignée comme l’enjeu de l’« explicabilité », est complexifiée par l’évolution d’un système au fil du temps. À titre d’exemple, un outil de priorisation des ressources municipales entre divers quartiers tel le logiciel MVA[21] doit tenir compte du phénomène d’embourgeoisement observé avec le temps. Afin d’éviter qu’il soit désuet ou pire, nuisible, il faut effectuer une mise à jour périodique des critères décisionnels encodés dans l’outil, ce qui complique l’encadrement par audits externes[22]. Il en va de même sur le plan géographique, où la non-prise en compte des différences socioculturelles peut entrainer des conséquences néfastes[23].
Au vu de ces limites, des mesures de transparence doivent surtout éclaircir le contexte sociotechnique dans lequel ces systèmes sont conçus, déployés et entretenus. Contrairement aux détails techniques, cette information est connue du grand public et permet des échanges démocratiques sur des cas d’utilisation appropriée et inappropriée d’outils algorithmiques. Après tout, ces débats sont essentiels puisque les concepteurs de systèmes doivent parfois trouver un compromis entre des objectifs contradictoires tels que l’équité et l’efficacité[24].
L’enjeu de la discrimination et de l’injustice
Les spécialistes des données sont sollicités pour traduire la prise de décisions administratives en problèmes d’optimisation. L’évaluation de la vulnérabilité d’une personne en situation d’itinérance avec l’outil VI-SPDAT[25], par exemple, se réduit à une prédiction à partir de données telles que le nombre d’hospitalisations, la prescription de médicaments et l’identité de genre. L’« art » du métier consiste à trouver et à accumuler les données dotées du plus grand potentiel prédictif, mais celles-ci comportent également un potentiel discriminatoire. Depuis quelques années, un nombre grandissant d’ouvrages documente et critique les formes de discrimination et d’injustice diffusées par les applications émergentes de l’IA[26].
Aux États-Unis, les communautés qui ont été historiquement davantage surveillées sont aujourd’hui victimes de profilage par des systèmes algorithmiques entrainés à partir de données reflétant le racisme systémique de l’histoire criminelle. Dans un tel contexte, les effets discriminatoires ne sont pas une conséquence du dysfonctionnement de l’algorithme, mais plutôt un reflet d’inégalités enracinées dans les rapports sociaux. Même certaines caractéristiques absentes telles que le sexe, l’âge, l’ethnicité, la religion peuvent être inférés par l’algorithme de façon insidieuse à partir de données comme le code postal, l’emploi ou le prénom[27]. En ce sens, la proposition selon laquelle les algorithmes sont plus neutres et objectifs que les humains est insoutenable puisque les données utilisées par un algorithme sont elles-mêmes biaisées.
En outre, des effets discriminatoires peuvent naitre de l’accumulation de données déséquilibrées. Lorsque l’ensemble des données d’entrainement représente de façon disproportionnée certains groupes à cause d’un manque d’entrées ou d’un surplus, le modèle reproduira ces biais. Par exemple, certains systèmes de reconnaissance faciale actuellement utilisés par la police sont moins précis pour identifier les personnes racisées, car leurs visages sont insuffisamment représentés dans l’ensemble des données et, de ce fait, ils dévient de la norme du visage blanc[28]. Porcha Woodruff et Rendal Reid, détenus à tort par la police sous prétexte d’avoir été identifiés par un système de reconnaissance faciale, sont deux cas d’une liste de plus en plus longue de personnes profilées à tort par le biais de ces technologies[29].
De même, une collection d’outils d’évaluation du risque de récidive, conçus par et pour les personnes blanches, sont employés dans le cas de détenus autochtones au Canada. Dans Ewert c. Canada, la Cour suprême du Canada a statué que le Service correctionnel du Canada (SCC) :
n’avait pas pris les mesures raisonnables appropriées pour s’assurer que ses outils produisaient des résultats exacts et complets à l’égard des détenus autochtones […] Le SCC savait que les outils suscitaient des craintes, mais il a continué à s’en servir malgré tout[30].
Ainsi, les effets discriminatoires de l’IA se réalisent autant par l’exclusion des personnes racisées de l’ensemble des données que par leur inclusion.
L’enjeu de l’imputabilité
Afin de prévenir le déploiement d’algorithmes opaques et discriminatoires, l’encadrement responsable de l’IA ne peut pas se limiter aux déclarations de valeurs et de principes qui, outre le scepticisme à propos de leur efficacité, effectuent une sorte de « lavage éthique ». Les mécanismes d’imputabilité traditionnels, où une action répréhensible est attribuée à son auteur ou son autrice, sont défaillants lorsque des systèmes algorithmiques sont en cause. En ce qui concerne la fonction publique, il faut se tourner vers le droit administratif.
D’abord, les décisions administratives sont jugées selon leur raisonnabilité. Il s’agit de la norme de contrôle appliquée par défaut pour évaluer la validité d’une décision prise par une institution publique[31]. C’est, en quelque sorte, le cœur des mécanismes de protection du citoyen et de la citoyenne. À l’inverse, une décision est jugée déraisonnable s’il y a un « manque de logique interne dans le raisonnement » ou encore un « manque de justification[32] ». Toutefois, comme l’illustre Michael T. v. Crouch, présenter une explication du procédé logique d’un algorithme s’avère parfois impossible[33].
Les outils algorithmiques utilisés en soutien à la décision, quant à eux, complexifient le problème d’imputabilité. State v. Loomis démontre que malgré le besoin de systèmes dont le fonctionnement est intelligible, on peut contourner ceux-ci lorsqu’ils produisent des recommandations plutôt que des décisions. Outre les biais cognitifs relatifs à la fiabilité des algorithmes, ces derniers « réduisent le sentiment de contrôle, de responsabilité et d’agentivité morale chez les opérateurs humains[34] ». Les mécanismes d’imputabilité actuels attribuent le blâme aux personnes et non aux outils d’aide à la décision sans tenir compte des nouvelles dynamiques de pouvoir dans les environnements humain-IA. Or, le pouvoir décisionnel des fonctionnaires peut s’avérer négligeable, en particulier dans un contexte de prise de décision rapide, de manque de formation et de charge de travail démesurée[35]. Ainsi, tel que le souligne Wagner, « les gens ne peuvent pas être blâmés ou tenus responsables uniquement de leur pouvoir discrétionnaire : celui des systèmes techniques doit aussi être pris en compte[36] ». Dans les environnements humain-IA, des mécanismes de justice réparatrice doivent problématiser les dynamiques du travail, en dégager les enjeux et prescrire un changement des pratiques institutionnelles plutôt que d’attribuer le blâme et les sanctions aux individus.
Pour ce faire, l’encadrement des algorithmes doit s’effectuer sur plusieurs plans : à l’échelle de l’instrument, certes, mais également à l’échelle du contexte sociotechnique et de la société[37]. Les premières tentatives visant à assurer une utilisation responsable des algorithmes étaient axées sur la transparence des outils algorithmiques, ce qui est parfois irréalisable et jamais suffisant[38]. On doit établir des normes éthiques et des règles claires pour pallier les limites inhérentes à ces technologies, en commençant par une évaluation de la nécessité et des impacts d’un système d’IA pour une tâche donnée. Le corps législatif, quant à lui, doit mettre l’accent sur la création de nouveaux droits et obligations[39] en matière d’approvisionnement (interdiction de clauses de non-divulgation), de documentation ou encore le droit à une explication, le droit à un examen humain et la divulgation publique des objectifs, des risques et des répercussions de ces systèmes. De plus, les applications à haut risque, comme le SSP décrit précédemment, devraient se conformer à des normes plus strictes, s’accompagner de dossiers plus détaillés, être soumises à des examens plus fréquents et à des conséquences plus importantes en cas de négligence ou d’évitement.
Face à ces enjeux, le grand public joue un rôle clé dans le développement des applications de l’IA. Les pressions du public et les actions judiciaires collectives ont largement permis de retirer et de restreindre des systèmes opaques et discriminatoires tels que COMPAS, SyRI, Robodebt et d’autres. L’intégration des applications de l’IA s’inscrit dans la longue histoire de la technocratisation de l’État, où les techniques scientifiques sont valorisées au détriment de l’autonomisation des personnes et des qualités humaines qui sont pourtant essentielles à l’administration des services de soutien social. Devant les promesses du gouvernement québécois, on doit instaurer davantage d’espaces de discussions et de débats démocratiques sur la transition numérique des pouvoirs publics. Autrement, ces technologies continueront à opprimer plutôt qu’à rendre autonome.
Par Jérémi Léveillé, bachelier en arts libéraux et en informatique
- Gouvernement du Québec, Stratégie d’intégration de l’intelligence artificielle dans l’administration publique 2021-2026, juin 2021. ↑
- Mark Bovens et Stavros Zouridis, « From street-level to system-level bureaucracies : how information and communication technology is transforming administrative discretion and constitutional control », Public Administration Review, vol. 62, n° 2, 2002. ↑
- Jenna Burrell et Marion Fourcade, « The society of algorithms », Annual Review of Sociology, vol. 47, 2021. ↑
- Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023. ↑
- Evgeny Morozov, To Save Everything, Click Here. The Folly of Technological Solutionism, New York, PublicAffairs, 2014. ↑
- Conseil de l’innovation du Québec, Le potentiel et les exigences de l’adoption de l’IA dans l’administration publique, Québec, Gouvernement du Québec, octobre 2023, p. 15 ; Hélène Gaudreau et Marie-Michèle Lemieux, L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux, Québec, Conseil supérieur de l’éducation, 2020. ↑
- Maxime Colleret et Mahdi Khelfaoui, « D’une révolution avortée à une autre ? Les politiques québécoises en nanotechnologies et en IA au prisme de l’économie de la promesse », Recherches sociographiques, vol. 61, n° 1, 2020. ↑
- Ana Brandusescu, Politique et financement de l’intelligence artificielle au Canada : investissements publics, intérêts privés, Montréal, Centre de recherches interdisciplinaires en études montréalaises, Université McGill, mars 2021, p. 37-40 ; Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec. Propositions pour un modèle d’innovation au profit des services et des soins de santé publics, Montréal, IRIS, novembre 2023. ↑
- Hannah Bloch-Wehba, « Access to algorithms », Fordham Law Review, vol. 88, n° 4, 2020, p. 1272. ↑
- Ryan Calo et Danielle Keats Citron, « The automated administrative state : a crisis of legitimacy », Emory Law Journal, vol. 70, n° 4, 2021. ↑
- State v. Loomis, 881 N.W.2d 749 (Wis 2016). ↑
- Michael T. v. Crouch, No. 2:15-CV-09655, 2018 WL 1513295 (S.D.W. Va. Mar. 26, 2018). ↑
- Christiaan Van Veen, Aux Pays-Bas, une décision judiciaire historique sur les États-providences numériques et les droits humains, Open Global Right, mars 2020. ↑
- Catherine Holmes, Report, Royal Commission into the Robodebt Scheme, Brisbane (Australie), juillet 2023, p. 331. ↑
- Immigration et citoyenneté Canada, Automatisation pour accélérer le traitement des permis de travail d’Expérience internationale Canada, Gouvernement du Canada, 7 novembre 2023. ↑
- Pasquale Turbide, « Un logiciel de la DPJ mis en cause dans la mort d’un enfant », Radio-Canada, 14 novembre 2019. ↑
- Me Géhane Kamel, Rapport d’enquête POUR la protection de LA VIE humaine concernant le décès de Thomas Audet, Québec, Bureau du coroner, février 2023. ↑
- Washington State Legislature, Loi concernant l’établissement de lignes directrices pour l’approvisionnement gouvernemental de systèmes de décision automatisés afin de protéger les consommateurs, améliorer la transparence, et créer plus de prévisibilité du marché, SB 5356 – 2023-24, janvier 2023. ↑
- Jenna Burrell, « How the machine “thinks” : understanding opacity in machine learning algorithms », Big Data & Society, vol. 3, n° 1, 2016 ; Joshua A. Kroll, Joanna Huey, Solon Barocas, Edward W. Felten, Joel R. Reidenberg, David G. Robinson, Harlan Yu, « Accountable algorithms », University of Pennsylvania Law Review, vol. 165, n° 3, 2017, p. 633-706. ↑
- Catherine Holmes, op. cit., p. iii. ↑
- Conseil jeunesse de Montréal, Avis sur l’utilisation de systèmes de décision automatisée par la Ville de Montréal. Assurer une gouvernance responsable, juste et inclusive, Montréal, février 2021, p. 33. ↑
- Mike Ananny et Kate Crawford, « Seeing without knowing: limitations of the transparency ideal and its application to algorithmic accountability », New Media & Society, vol. 20, n° 3, 2018, p. 982. ↑
- Andrew D. Selbst, Danah Boyd, Sorelle A. Friedler, Suresh Venkatasubramanian, Janet Vertesi, « Fairness and abstraction in sociotechnical systems », Proceedings of the Conference on Fairness, Accountability, and Transparency, 2019, p. 61. ↑
- Teresa Scassa, « Administrative law and the governance of automated decision-making. A critical look at Canada’s Directive on automated decision making », U.B.C. Law Review, vol. 54, n° 1, 2021, p. 262-265.↑
- Conseil jeunesse de Montréal, op. cit., p. 32. ↑
- Virginia Eubanks, Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor, New York, St. Martin’s Press, 2018 ; Saifya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York, NYU Press, 2018 ; Ruha Benjamin, Race After Technology, Medford, Polity, 2019 ; Joy Buolamwini, Unmasking AI, New York, Penguin Random House, 2023 ; Cathy O’Neil, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, Portland, Broadway Books, 2017. ↑
- Kroll et al., « Accountable algorithms », op. cit., p. 656. ↑
- Buolamwini, op. cit. ↑
- Kashmir Hill, « Eight months pregnant and arrested after false facial recognition match », The New York Times, 6 août 2023 ; Kashmir Hill et Ryan Mac, « Thousands of dollars for something I didn’t do », The New York Times, 31 mars 2023. ↑
- Cour suprême du Canada, Ewert c. Canada (Service correctionnel), 13 juin 2018 et <https://scc-csc.lexum.com/scc-csc/scc-csc/fr/item/17133/index.do>. ↑
- Gouvernement du Canada, Processus décisionnel – Norme de contrôle et marche à suivre pour prendre une décision raisonnable, 12 juillet 2022 ; Cour suprême du Canada, Canada (ministre de la Citoyenneté et de l’Immigration) c. Vavilov, 19 décembre 2019, CSC 65. ↑
- Jurisource, Normes de contrôle (schématisé), 2020. ↑
- Michael T. v. Crouch, Action civile No. 2:15-cv-09655, 2018 WL 1513295 (S.D.W. Va. Mar. 26, 2018). ↑
- Ben Green, « The flaws of policies requiring human oversight of government algorithms », Computer Law & Security Review, vol. 45, 2022, p. 7. Notre traduction. ↑
- Ben Wagner, « Liable, but not in control ? Ensuring meaningful human agency in automated decision-making systems », Policy & Internet, vol. 11, n° 1, 2019, p. 104-122. ↑
- Ibid., p. 16. Notre traduction. ↑
- Joshua A. Kroll, « Accountability in computer systems », dans Markus D. Dubber, Frank Pasquale et Sunit Das (dir.), The Oxford Handbook of Ethics of AI, Oxford, Oxford University Press, 2020, p. 181-196 ; Micheal Veale et Irina Brass, « Administration by algorithm ? Public management meets public sector machine learning », dans Karen Yeung et Martin Lodge (dir.), Algorithmic Regulation, Oxford, Oxford University Press, 2019. ↑
- Ananny et Crawford, op. cit., p. 985. ↑
- Veale et Brass, op. cit. ↑