Le vingt et unième siècle a vu l’essor d’une nouvelle phase de développement du capitalisme qualifiée par Shoshana Zuboff de capitalisme de surveillance[1], alors que d’autres, comme Jonathan Durand Folco et Jonathan Martineau, parlent plutôt de capitalisme algorithmique[2]. Dans cet article, nous utiliserons l’une ou l’autre de ces appellations, selon l’angle d’analyse.
Ce nouveau capitalisme, fondé sur l’exploitation des données personnelles rendues disponibles par un monde de plus en plus hyperconnecté a été développé par des entreprises qui, jeunes pousses (startups) au début des années 2000, ont aujourd’hui la plus haute capitalisation boursière. Ces entreprises ont pu déployer leur activité sans qu’aucun mécanisme ne les régule. L’essor débridé de ce nouveau capitalisme bouleverse les rapports sociaux sur tous les plans et représente une menace pour les libertés et la démocratie, en plus d’avoir des répercussions majeures sur de nombreux droits humains en matière de santé, de travail et d’environnement.
Les fondements du capitalisme de surveillance
Au début des années 2000, Google cherche à rentabiliser son moteur de recherche et se rend compte que l’activité des usagères et usagers génère une masse de données qui permettent d’en inférer leurs goûts, leur orientation sexuelle, leur état de santé physique et psychologique, etc. Ces données, que Shoshana Zuboff qualifie de surplus comportemental, possèdent une grande valeur marchande car elles permettent, après traitement, de vendre davantage de publicité en ciblant les personnes les plus réceptives et d’orienter leurs comportements. Elles constituent le nouveau pétrole, la matière première du capitalisme de surveillance.
Les géants du numérique, en particulier Facebook, n’ont pas tardé à s’engouffrer dans la voie ouverte par Google. La collecte de données sur nos comportements ne connait plus de limites. La prolifération d’objets connectés permet de scruter nos vies et nos corps dans leurs recoins les plus intimes : capteurs corporels qui enregistrent nos signes vitaux, lits connectés qui surveillent notre sommeil, assistants vocaux qui espionnent nos conversations, balayeuses robotisées dotées de caméras qui se promènent partout dans la maison. La capture de données a été investie par des entreprises dont le produit n’a au départ rien à voir avec la collecte de données. L’exemple des fabricants d’automobiles est frappant.
Aux États-Unis, la compagnie sans but lucratif Mozilla a décrit les voitures comme le pire produit qu’elle a examiné en matière de violation de la vie privée[3]. Les constructeurs d’autos collectent de l’information à partir de vos interactions avec votre véhicule, des applications que vous utilisez, de vos communications téléphoniques avec l’application mains libres, de vos déplacements, ainsi que de tiers comme Sirius XM et Google Maps. Or, 84 % des fabricants avouent partager ces informations avec des fournisseurs de services ou des agrégateurs de données, 76 % disent qu’ils peuvent les vendre et 56 % déclarent qu’ils les fournissent au gouvernement ou à la police sur simple demande. Parmi les informations que l’usagère ou l’usager « accepte » de partager, il peut y avoir l’activité sexuelle (Nissan et Kia) et six compagnies mentionnent les informations génétiques. De plus, 92 % des fabricants donnent peu ou pas de contrôle à l’usagère ou l’usager et présument que vous acceptez ces politiques en achetant leur véhicule. Seuls Renault et Dacia, dont les voitures sont vendues en Europe et soumises à la réglementation européenne, offrent une réelle option de refus. Tesla, la pire des compagnies examinées par Mozilla, vous informe que vous pouvez refuser la collecte de ces informations mais que votre voiture pourrait souffrir des dommages et devenir… inopérante !
Au Québec, les lois de protection des renseignements personnels font barrière à de telles pratiques. Une entreprise ne peut recueillir de renseignements personnels qu’avec le consentement de la personne et pour une fin déterminée. Ce consentement peut être retiré en tout temps. L’entreprise ne peut recueillir que les renseignements nécessaires aux fins déterminées avant la collecte. Cette obligation de limiter la cueillette aux seuls renseignements nécessaires est impérative et une entreprise ne peut y déroger même avec le consentement de la personne concernée. Par ailleurs, il est possible de recueillir des renseignements personnels au moyen d’une technologie capable d’identifier des personnes, de les localiser ou d’en effectuer le profilage. Cependant, cela ne doit être fait qu’avec le consentement des personnes de sorte que cette technologie doit être désactivée par défaut. Les sanctions en cas de non-respect de la loi peuvent être importantes. Cela dit, on peut se demander dans quelle mesure la Commission d’accès à l’information (CAI) pourra s’assurer du respect de ces dispositions dans un marché mondial de l’automobile. Contrairement à l’assistant vocal qu’on peut refuser d’acheter, la voiture est un bien essentiel pour beaucoup de personnes.
Information, débat public et démocratie
Les données comportementales récoltées peuvent tout aussi bien être utilisées pour influer sur des processus démocratiques comme les référendums et les élections. Le cas de Cambridge Analytica est bien documenté. Cette compagnie a exploité jusqu’en 2014 la possibilité offerte par Facebook aux développeurs d’application d’avoir accès aux données de tous les ami·e·s des utilisatrices et utilisateurs de l’application. C’est ainsi qu’elle a pu obtenir les données de 87 millions de personnes. Ces données lui ont permis de cibler des électrices et des électeurs et de les bombarder de messages susceptibles de les inciter à appuyer Donald Trump aux élections de 2016. La compagnie est également intervenue pour influer sur le vote de la sortie du Royaume-Uni de l’Union européenne, le Brexit.
Le fonctionnement même des plateformes contribue à polluer le débat démocratique. Pour mousser l’engagement de l’internaute, les plateformes mettent à l’avant-plan les « nouvelles » les plus sensationnalistes et, par le fait même, se trouvent à faire la promotion de fausses nouvelles (fake news). Pour maintenir son intérêt, elles vont proposer des liens vers des sites qui confortent son opinion, ce qui le confine dans des chambres d’écho qui favorisent la montée de l’extrémisme. Les conséquences sont particulièrement graves dans les pays du Sud global, où les mécanismes de modération de contenu de Facebook sont particulièrement peu nombreux et peu efficaces. La propagation de fausses nouvelles a exacerbé la violence ethnique en Éthiopie et contribué au génocide des Rohingyas au Myanmar.
En même temps, nous assistons à la destruction accélérée des médias traditionnels provoquée par ces plateformes. La circulation d’une information fiable et diversifiée, essentielle à la vie démocratique, est laminée par le capitalisme algorithmique.
Le problème des méfaits en ligne
Le fonctionnement même des plateformes est propice à la prolifération d’activités toxiques ou carrément illégales en ligne. En réponse aux populations qui leur demandent d’agir, les gouvernements ont entrepris d’adopter des projets de loi ayant pour but de sévir contre ces méfaits.
En juillet 2021, le gouvernement du Canada a proposé de créer un seul système pour traiter cinq types de méfaits très différents : le discours haineux, le partage non consensuel d’images intimes, le matériel d’abus sexuel d’enfant, le contenu incitant à la violence et le contenu terroriste.
Le projet aurait créé un régime de surveillance appliqué par les plateformes qui inciterait celles-ci à retirer du contenu rapidement, sous peine d’amendes sévères, sur simple dénonciation d’un tiers et sans possibilité d’appel. La menace à la liberté d’expression était patente. De plus, les plateformes auraient été obligées de partager ces contenus avec les forces de l’ordre et les agences de sécurité nationale.
Face au tollé qu’a suscité son projet, le gouvernement est retourné à la planche à dessin et nous attendons toujours un nouveau projet. Cette saga illustre la difficulté de règlementer les dommages en ligne sans tomber dans une autre forme de surveillance liberticide. Peut-on éviter ce dilemme sans remettre en question le modèle d’affaires des plateformes qui tirent profit de ce genre d’activités ?
Les effets délétères sur la santé
Les plateformes sont fondées sur une rétroaction conçue pour développer une dépendance aux écrans, ce qui a des conséquences délétères sur la santé. Elles peuvent favoriser l’isolement au détriment de rapports sociaux significatifs. L’effet est particulièrement dévastateur pour les jeunes et affecte les filles plus que les garçons. Dans sa dénonciation de Facebook, la lanceuse d’alerte Frances Haugen[4] a dévoilé des études internes de Facebook selon lesquelles 13,5 % des adolescentes au Royaume-Uni avaient constaté un accroissement de leurs pensées suicidaires après s’être inscrites sur Instagram et 17 % avaient vu leurs troubles alimentaires augmenter. Instagram a contribué à empirer la situation de 32 % des filles qui ont des problèmes d’image corporelle. Aux États-Unis, en octobre 2023, 33 États ont intenté une poursuite contre Instagram et Meta pour avoir délibérément induit une dépendance à leur plateforme tout en étant conscients des dommages potentiels.
Un désastre environnemental
L’impact environnemental de ce nouveau stade de développement du capitalisme est largement absent du débat public alors que sa croissance fulgurante a des conséquences majeures en matière de pollution et, surtout, de consommation de ressources naturelles et énergétiques. Bien qu’il soit le nouveau carburant d’une croissance incompatible avec la résolution de la crise climatique, il est plutôt présenté à la population comme une économie de l’immatériel relativement inoffensive.
Un simple courriel avec une pièce jointe peut laisser une empreinte carbone d’une vingtaine de grammes. La transmission de vidéos est encore plus énergivore. Le cas extrême du clip Gangnam Style du chanteur sud-coréen Psy, visionné 1,7 milliard de fois par an, équivaut à la consommation annuelle d’une ville française de 60 000 personnes[5]. La production et la transmission boulimiques de données engendrent une consommation d’énergie faramineuse qui représenterait 10 % de l’énergie électrique de la planète[6]. Cette production de données est en croissance exponentielle. Elle est multipliée par quatre tous les cinq ans[7] et la production projetée pour 2035 est d’environ 50 fois celle de 2020, soit 2142 zettaoctets[8]. La discussion sur les systèmes d’intelligence artificielle (IA) comme ChatGPT néglige le coût énergétique de ces outils. L’utilisation d’algorithmes comme Bard, Bing ou ChatGPT dans des requêtes de recherche multiplierait par dix l’empreinte carbone des recherches.
Cette croissance sans limites du stockage et de la transmission de données et l’utilisation d’algorithmes de plus en plus puissants pour les traiter entrainent une explosion des infrastructures telles que la 5G[9] et des centres de données et de calculs gigantesques. L’obsolescence programmée des appareils augmente d’autant la consommation de matières premières comme les métaux rares, ce qui a des effets désastreux sur l’environnement. La croissance illimitée du numérique est un obstacle à la décarbonation de l’économie et à la sortie de la crise climatique, crise qui menace le droit à la santé, à l’alimentation, au logement et même à la survie de millions de personnes.
Surveillance étatique et policière
La masse de données que le capitalisme de surveillance a produites à des fins lucratives constitue une mine d’or pour les services de police et de sécurité nationale qui fonctionnent de plus en plus selon une logique de surveillance généralisée des populations et d’un maintien de l’ordre prédictif[10].
En 2013, Edward Snowden dévoilait l’étendue de l’appareillage d’espionnage de la National Security Agency (NSA) des États-Unis et la puissance des outils qui lui donnent accès aux données de Microsoft, Yahoo, Google, Facebook, PalTalk, AOL, Skype, YouTube et Apple. Rappelons que la NSA est le chef de file d’un consortium de partage de renseignements, les Five Eyes, formé des agences d’espionnage des États-Unis, de la Grande-Bretagne, de l’Australie, de la Nouvelle-Zélande et du Canada. La mise sur pied de centres de surveillance ne se limite pas aux agences de renseignement et de sécurité nationale. Les forces policières se dotent de plus en plus de centres d’opérations numériques qui analysent en temps réel toutes les informations disponibles pour diriger les interventions de la police sur le terrain[11]. Les informations traitées proviennent autant des banques de données des services de police que des images des caméras de surveillance publiques et privées ainsi que des informations extraites des réseaux sociaux par des logiciels. Les banques de données des forces policières contiennent des données sur des citoyennes et des citoyens qui n’ont jamais été condamnés pour un quelconque crime, données issues d’interpellations fondées sur le profilage racial, social ou politique.
Maintien de l’ordre prédictif
Les forces policières ont de plus en plus recours à des systèmes de décisions automatisés (SDA) pour exploiter les masses croissantes de données dont elles disposent. Des SDA sont utilisés, entre autres, pour cibler les lieux où des délits sont susceptibles de se produire ou les individus susceptibles d’en commettre. Ces systèmes de maintien de l’ordre prédictif sont alimentés de données qui renforcent une tendance à la répression de certaines populations. Comme le dit Cathy O’Neil, dans son livre sur les biais des algorithmes : « Le résultat, c’est que nous criminalisons la pauvreté, tout en étant convaincus que nos outils sont non seulement scientifiques, mais également justes[12] ». Les quartiers pauvres sont également ceux où l’on retrouve une plus grande proportion de personnes racisées, ce qui alimente également les préjugés racistes des SDA et des interventions policières.
Le rôle des entreprises privées
Les logiciels de SDA nécessaires pour interpréter ces masses de données sont fournis par des compagnies comme IBM, Motorola, Palantir qui ont des liens avec l’armée et les agences de renseignement et d’espionnage. Des compagnies comme Stingray fabriquent du matériel qui permet aux forces policières d’intercepter les communications de téléphones cellulaires afin d’identifier l’usagère ou l’usager et même d’accéder au contenu de la communication. Le logiciel Pegasus de la compagnie israélienne NSO, qui permet de prendre le contrôle d’un téléphone, a été utilisé par des gouvernements pour espionner des militantes et militants ainsi que des opposantes et opposants. D’autres entreprises comme Clearview AI et Amazon fournissent des données de surveillance aux forces policières. Clearview AI a collecté des milliards de photos sur Internet et offre aux forces policières de relier l’image d’une personne à tous les sites où elle apparait sur le Net. Le Commissaire à la protection de la vie privée du Canada a déclaré illégales les actions de Clearview AI ainsi que l’utilisation de ses services par la Gendarmerie royale du Canada (GRC).
La compagnie Amazon est emblématique du maillage entre le capitalisme de surveillance et les forces policières. Selon une étude de l’American Civil Liberties Union (ACLU), cette compagnie entretient une relation de promiscuité avec les forces policières et les agences de renseignement allant jusqu’à partager les informations sur ses utilisatrices et utilisateurs et à conclure des contrats confidentiels avec ces agences[13].
Le système Ring d’Amazon est en voie de constituer un vaste système de surveillance de l’espace public par les forces policières aux États-Unis. Les sonnettes Ring sont dotées de caméras qui scrutent en permanence l’espace public devant le domicile. L’usagère ou l’usager d’une sonnette Ring accepte par défaut qu’Amazon rende les images de sa sonnette accessibles aux services de police. Environ 2 000 services policiers ont déjà conclu des ententes avec Amazon pour avoir accès à ces caméras[14], le tout sans mandat judiciaire !
Tous ces développements se font sans débat public et sans transparence des forces policières. Ces pratiques vont à l’encontre du principe de présomption d’innocence selon lequel une personne ne peut faire l’objet de surveillance policière sans motif. Elles contournent également l’exigence d’un mandat judiciaire dans le cas des formes intrusives de surveillance. En ciblant les quartiers et les populations jugés à risque, elles renforcent les différentes formes de profilage policier et de discrimination.
Le cadre légal qui gouverne la police doit être mis à jour de façon à protéger la population contre une surveillance à grande échelle. La surveillance de masse doit être proscrite et des techniques particulièrement menaçantes, comme la reconnaissance faciale, doivent être interdites tant qu’il n’y aura pas eu de débat public sur leur utilisation.
Législation sur la protection de la vie privée au service du capital
Les premières lois de protection des renseignements personnels ont été adoptées dans les années 1980 et 1990. Afin de les adapter à l’ère numérique, particulièrement dans le contexte du développement de l’intelligence artificielle, l’Assemblée nationale adoptait la Loi 25, sanctionnée le 22 septembre 2021[15].
Bien que la Loi 25 comporte certaines avancées, notamment quant aux pouvoirs de la Commission d’accès à l’information (CAI) en cas de fuite de données, son objet principal consiste à libéraliser la communication et l’utilisation des données et à autoriser de multiples échanges de renseignements personnels entre ministères et organismes publics, le tout sans le consentement de la personne concernée.
La Loi 25 abolit le mécanisme de contrôle préalable de la CAI sur la communication de renseignements personnels sans le consentement de la personne concernée à des fins d’étude, de recherche ou de statistiques. On passe donc d’un régime d’autorisation à un régime d’autorégulation de la communication sans consentement de renseignements nominatifs possiblement très sensibles[16]. Un régime en partie similaire a été établi par la Loi 5 quant aux renseignements relatifs à la santé.
Le projet de loi 38[17], sanctionné le 6 décembre 2023, s’inscrit dans cette lignée. Les organismes publics, désignés comme source officielle de données numériques gouvernementales, n’auront plus à faire approuver par la CAI leurs règles de gouvernance des renseignements personnels. De plus, sur simple autorisation du gouvernement, des renseignements personnels détenus par l’État pourraient être utilisés sans consentement dans le cadre de projets pilotes, à de vagues fins d’étude, d’expérimentation ou d’innovation dans le domaine cybernétique ou numérique.
Les données que détiennent les organismes publics et les ministères constituent un bien collectif qui suscite la convoitise. En effet, les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) de même que des entreprises pharmaceutiques et technologiques investissent de plus en plus le domaine médical. Les données confiées à des entreprises étatsuniennes sont assujetties au Cloud Act et au Patriot Act des États-Unis, quel que soit leur lieu physique d’hébergement. Pierre Fitzgibbon, aujourd’hui ministre de l’Économie, de l’Innovation et de l’Énergie, a qualifié en 2020 les données que détient la Régie de l’assurance maladie du Québec (RAMQ) de « mine d’or ». Il ajoutait : « La stratégie du gouvernement, c’est carrément de vouloir attirer les “pharmas”, quelques “pharmas”, à venir jouer dans nos platebandes, profiter de ça[18] ».
L’étude de l’Institut de recherche et d’informations socioéconomiques (IRIS) sur le financement octroyé par le gouvernement du Québec à l’IA en santé confirme la vision du ministre. L’étude démontre que les fonds publics sont alloués de manière disproportionnée à des projets de recherche menés en partenariat avec de jeunes pousses et des entreprises internationales du secteur pharmaceutique. Le rôle du réseau de la santé et des services sociaux consiste à fournir des données massives et le terrain d’expérimentation dont ces entreprises ont besoin pour développer leurs produits avant de pouvoir les commercialiser internationalement. Comme le souligne l’IRIS, « la multiplication des projets d’ouverture des données est directement liée à la pression pour développer le plus rapidement possible une industrie utilisant l’IA » et « les champs d’application de l’IA sont principalement centrés autour des marchés construits par l’industrie pharmaceutique et l’industrie du numérique[19] ». Ce sont des marchés qui favorisent une médecine de pointe individualisée, la multiplication des tests diagnostiques et une surutilisation de l’imagerie médicale, une médecine curative coûteuse au détriment d’une médecine préventive qui s’attaque aux problèmes de santé de la population. Cette orientation est intrinsèquement discriminatoire. La médecine de pointe bénéficie principalement aux couches aisées de la population, alors qu’elle sous-finance les soins de base et néglige les déterminants sociaux de la santé qui sont à la source des problèmes de santé des plus pauvres.
Pouvoir algorithmique, discrimination et exclusion
Le capitalisme algorithmique ne se contente pas d’envahir le champ des données comportementales des individus à des fins commerciales. Il cherche à pénétrer toutes les sphères d’activités ainsi que les institutions publiques et à imposer une gouvernance algorithmique qui sert ses intérêts. Selon Jonathan Durand Folco et Jonathan Martineau, « La régulation algorithmique comprend un ensemble de savoirs et de dispositifs permettant de représenter la réalité sociale par la collecte et l’analyse de données massives, de diriger des contextes d’interaction par l’instauration de règles, normes et systèmes de classification opérés par les algorithmes, et d’intervenir plus ou moins directement pour modifier les comportements des individus[20] ».
Les systèmes de décision automatisés (SDA) qui reposent sur l’IA sont maintenant utilisés pour décider qui aura accès à un prêt hypothécaire, qui sera éligible à une assurance. Aux États-Unis, les SDA sont même utilisés pour décider qui sera admis à l’université et quelle détenue ou détenu aura droit à une libération conditionnelle. Le jugement humain est de plus en plus écarté du processus de prise de décision. Les algorithmes derrière ces systèmes sont entrainés à partir de compilations massives de données sociétales qui reflètent les préjugés historiques de nos sociétés envers les femmes, les Autochtones, les minorités sexuelles et de genre, les personnes racisées et marginalisées, et perpétuent ainsi les discriminations. Ces SDA sont complexes et protégés par les droits de propriété intellectuelle. Leur fonctionnement opaque ne fait pas l’objet d’un examen public indépendant. Les personnes peuvent difficilement en appeler des décisions injustes dont elles sont victimes.
L’utilisation de ces systèmes implique que les individus doivent dorénavant transiger avec les institutions publiques et les entreprises au moyen d’outils informatiques que toutes et tous ne possèdent pas ou ne maitrisent pas. La vie numérique renforce les exclusions déjà effectives. Plusieurs revendications sont mises de l’avant pour contrer ces atteintes au droit à l’égalité : possibilité de refuser un traitement automatisé, possibilité de connaitre les raisons d’une décision et d’en appeler, obligation de transparence quant au fonctionnement des SDA.
Le défi…
Nous sommes au tout début de la prise de conscience du capitalisme de surveillance et de ses effets. Comme on le constate, le développement de ce nouveau capitalisme soulève de nombreux enjeux de droits qui dépassent le seul droit à la vie privée. La surveillance et la manipulation des comportements sont des atteintes à l’autonomie des individus, à la vie démocratique et au droit à l’information. Le manque de transparence dans la collecte de données et les systèmes de décision automatisés qui servent à la prise de décision sont source de discrimination et accentuent le déséquilibre de pouvoir entre les individus d’une part, les géants du numérique et les gouvernements d’autre part. Les phénomènes de dépendance et l’impact environnemental du capitalisme de surveillance portent atteinte au droit à la santé et à un environnement sain.
À ses débuts, dans les années 1990, Internet était source d’espoir. Il allait briser le monopole des grands médias traditionnels, écrits et électroniques sur le débat public et permettre à des voix qui n’avaient pas accès à ces moyens de se faire entendre et de s’organiser. Cet espoir n’était pas sans fondement et Internet a effectivement permis à de nombreux mouvements sociaux (MeToo, Black Lives Matter, la campagne pour l’abolition des mines antipersonnel…) de se développer à une échelle mondiale et d’avoir une portée. Les réseaux sociaux permettent de diffuser et de dénoncer en temps réel les violations des droits aux quatre coins de la planète. On a aussi vu comment ces moyens de communication pouvaient être utiles en temps de pandémie. Cela ne doit toutefois pas nous faire perdre de vue que, si nous n’intervenons pas, le développement du numérique sous la gouverne du capitalisme de surveillance comporte de graves dangers pour les droits humains.
Un chantier de réflexion s’impose sur cette nouvelle économie des données, de même que sur l’approche consistant à définir les données collectives comme une propriété commune devant être juridiquement et économiquement socialisée. Nous devons pouvoir mettre ce nouvel univers numérique et de communication ainsi que l’IA au service du bien commun. Le défi des prochaines années consiste à se réapproprier ces outils numériques afin de les rendre socialement utiles. Le capitalisme de surveillance n’est pas une fatalité !
Par Dominique Peschard, Comité surveillance des populations, IA et droits humains de la Ligue des droits et libertés
- Shoshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2020. ↑
- Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique, Montréal, Écosociété, 2023. ↑
- Jen Caltrider, Misha Rykov et Zoë MacDonald, Mozilla, It’s official : cars are the worst product category we have ever reviewed for privacy, Fondation Mozilla, 6 septembre 2023.↑
- Bobby Allyn, Here are 4 key points from the Facebook whistleblower’s testimony on Capitol Hill, National Public Radio, 5 octobre 2021. ↑
- Institut Sapiens, Paris, cité dans Guillaume Pitron, L’enfer numérique. Voyage au bout d’un like, Paris, Les liens qui libèrent, 2021, p. 168. ↑
- Pitron, ibid. ↑
- Pitron, ibid., p. 334. ↑
- Un zettaoctets = 1020 octets. ↑
- NDLR. La 5G est la cinquième génération de réseaux de téléphonie mobile. Elle succède à la quatrième génération, appelée 4G, et propose des débits plus importants ainsi qu’une latence fortement réduite. ↑
- Un système conçu pour prédire nos comportements à partir de l’utilisation de données. ↑
- Martin Lukacs, « Canadian police expanding surveillance powers via new digital “operations centres” », The Breach, 13 janvier 2022.
- Cathy O’Neil et Cédric Villani, Algorithmes. La bombe à retardement, Paris, Les Arènes, 2020, p. 144. ↑
- Emiliano Falcon-Morano, Sidewalk : The Next Frontier of Amazon’s Surveillance Infrastructure, American Civil Liberties Union (ACLU), 18 juin 2021. ↑
- Lauren Bridges, « Amazon Ring’s is the largest civilian surveillance network the US has ever seen », The Guardian, 18 mai 2021. ↑
- NDLR. La Loi 25 désigne certaines dispositions de la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels dans le secteur privé. ↑
- Anne Pineau, « Le capitalisme de surveillance peut dormir tranquille! », Droits et libertés, vol. 39, n° 2, 2020. ↑
- Devenu la Loi modifiant la Loi sur la gouvernance et la gestion des ressources informationnelles des organismes publics et des entreprises du gouvernement et d’autres dispositions législatives. ↑
- Marie-Michèle Sioui, « Québec veut attirer les pharmaceutiques avec les données de la RAMQ », Le Devoir, 21 août 2020. ↑
- Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec, Montréal, IRIS, 2023. ↑
- Durand Folco et Martineau, op. cit., p. 201. ↑