AccueilNuméros des NCSNo. 31 - Hiver 2024Vers une théorie globale du capitalisme algorithmique

Vers une théorie globale du capitalisme algorithmique

DOSSIER - Nouveaux Cahiers du socialisme - No. 31 - Hiver 2024

La littérature sur l’intelligence artificielle (IA) et les algorithmes est aujourd’hui foisonnante, c’est le moins qu’on puisse dire. Toutefois, la plupart des analyses des impacts de l’IA abordent différents domaines de façon isolée : vie privée, travail, monde politique, environnement, éducation, etc. Peu de contributions traitent de façon systématique des rapports complexes qui se tissent entre le mode de production capitaliste et les algorithmes. Notre hypothèse de départ est qu’on ne peut comprendre le développement fulgurant des algorithmes sans comprendre les reconfigurations du capitalisme, et vice versa.

Pour saisir adéquatement les implications sociales, politiques et économiques des machines algorithmiques, il faut situer ces innovations dans le contexte de mutation du capitalisme des deux premières décennies du XXIe siècle. Nous suggérons que la valorisation des données massives et le déploiement rapide de l’IA grâce aux avancées de l’apprentissage automatique (machine learning) et de l’apprentisage profond (deep learning) s’accompagnent d’une mutation importante du capitalisme, et ce, au même titre que la révolution industrielle qui a jadis propulsé l’empire du capital au XIXe siècle. Nous sommes entrés dans un nouveau stade du capitalisme basé sur une nouvelle logique d’accumulation et une forme de pouvoir spécifique, que nous avons baptisé capital algorithmique. Ce terme désigne un phénomène multidimensionnel : il s’agit à la fois d’une logique formelle, d’une dynamique d’accumulation, d’un rapport social et d’une forme originale de pouvoir fondé sur les algorithmes. Il s’agit de conceptualiser la convergence entre la logique d’accumulation du capital et l’usage accru de nouveaux outils algorithmiques. Par contraste, l’expression « capitalisme algorithmique » renvoie plutôt à la formation sociale dans sa globalité, c’est-à-dire l’articulation historique d’un mode de production et d’un contexte institutionnel, ce que Nancy Fraser appelle un « ordre social institutionnalisé[2] ». Il faut donc distinguer la société capitaliste dans laquelle nous sommes, et le rapport social spécifique qui se déploie d’une multitude de manières.

Si la littérature a produit une panoplie d’appellations qui mettent l’accent sur différents aspects du capitalisme contemporain (capitalisme de surveillance, de plateforme, etc.), le concept de « capital algorithmique » comporte plusieurs avantages heuristiques afin de saisir la logique du nouveau régime d’accumulation capitaliste. Il permet d’abord de replacer le travail et la production au centre de l’analyse, mais également d’identifier ce qui, à notre avis, constitue le réel cœur de la logique d’accumulation du capitalisme aujourd’hui et de la relation sociale qui s’y déploie : l’algorithme. En effet, l’algorithme est le principe structurant du nouveau régime d’accumulation capitaliste qui prend appui sur, réarticule, et dépasse le néolibéralisme financiarisé. Premièrement, l’algorithme devient le mécanisme dominant d’allocation du « travail digital » (digital labor). Deuxièmement, l’algorithme ou l’accumulation algorithmique devient le mécanisme dominant de détermination du processus de production. Troisièmement, les algorithmes et les données qui leur sont associées deviennent un objet central de la concurrence entre les entreprises capitalistes. Quatrièmement, les algorithmes médiatisent les relations sociales, notamment par l’entremise des réseaux sociaux et des plateformes numériques. Cinquièmement, les algorithmes médiatisent l’accès à l’information et à la mémoire collective. Sixièmement, l’algorithme génère des revenus en participant à la production de marchandises, ou en tant que mécanisme participant de l’extraction de rentes différentielles. Septièmement, au-delà des entreprises privées, nombre d’organisations et de sphères sociales, allant des pouvoirs publics, services de police, complexes militaires, aux ONG de développement, en passant par les soins de santé, l’éducation, le transport, les infrastructures publiques, etc., ont recours à des technologies algorithmiques afin d’exercer leur pouvoir ou leurs activités. C’est la raison pour laquelle l’algorithme, bien davantage que le « numérique », le « digital », la « surveillance » ou autre constitue le cœur du nouveau régime d’accumulation : il médiatise les relations sociales, préside à la (re)production socioéconomique et diffuse sa logique prédictive dans la société contemporaine.

Si l’expression « capitalisme numérique » peut servir à désigner de manière large les multiples façons dont les technologies numériques influencent le capitalisme et inversement, cette catégorisation demeure trop générale et abstraite pour bien saisir les mécanismes et métamorphoses à l’œuvre au sein des sociétés du XXIe siècle. Plus précisément, l’hypothèse du capitalisme algorithmique suggère qu’il existe une rupture entre deux phases ou moments du capitalisme numérique. Alors que la période qui part de la fin des années 1970 correspond à l’émergence du capitalisme néolibéral, financiarisé et mondialisé, dans la première décennie du XXIe siècle, avec l’arrivée de nouvelles technologies comme l’ordinateur personnel et l’Internet de masse, une série de transformations a produit un effet de bascule ; les médias sociaux, les téléphones intelligents, l’économie de plateformes, les données massives et la révolution de l’apprentissage automatique ont convergé avec la crise financière mondiale de 2007-2008 pour accélérer le passage vers une reconfiguration du capitalisme où la logique algorithmique joue un rôle déterminant.

Pour éviter une conception trop mécanique et réductrice du capitalisme algorithmique, il importe de positionner notre perspective parmi la littérature foisonnante des théories critiques du capitalisme contemporain. Comme il existe une variété de positions entourant les relations complexes entre les technologies et le système capitaliste, nous pouvons distinguer trois principaux axes de débats : l’IA comme outil du capital, la nature du capitalisme et les possibilités d’émancipation.

L’IA, outil du capital ?

Premièrement, dans quelle mesure les algorithmes sont-ils des outils soumis à la logique capitaliste ? Selon une première position acritique, les algorithmes possèdent leur propre réalité, fonctions et usages potentiels, de sorte qu’il est possible de les analyser et de les développer sans faire référence au mode de production capitaliste, à ses impératifs d’accumulation, à ses modes d’exploitation et à ses contraintes spécifiques. Cette vision dominante des algorithmes, largement partagée au sein des milieux scientifiques, industriels et médiatiques, inclut les théories courantes de l’IA, l’éthique des algorithmes ou encore les positions techno-optimistes qui considèrent que les données massives, les plateformes et l’apprentissage automatique pourront créer un monde plus efficace, libre et prospère. Si les auteurs n’hésitent pas à reconnaitre les risques propres à ces technologies, l’objectif ultime est de « harnacher » la révolution algorithmique afin qu’elle soit au service du bien commun, ou encore qu’elle permette de réinventer le capitalisme à l’âge des données massives[3].

Face à ces positions acritiques, des théories critiques n’hésitent pas à dénoncer cette fausse indépendance de la technique et à voir dans les algorithmes un nouvel outil au service du capital. La question de savoir s’il existe plusieurs usages possibles des données massives et de l’IA est matière à débat, mais toutes les approches critiques du capitalisme partagent un constat commun : ce sont les grandes entreprises du numérique qui contrôlent en bonne partie le développement de ces technologies. En effet, ce sont elles qui possèdent les droits de propriété intellectuelle, les budgets de recherche, les centres de données qui stockent nos données personnelles, de même que le temps de travail des scientifiques et celui des lobbyistes qui font pression auprès des gouvernements pour empêcher des législations contraires à leurs intérêts[4]. Nous soutenons la thèse voulant que les technologies algorithmiques soient principalement ou surtout développées en tant qu’outils d’accumulation du capital, tout en étant aussi utilisées dans une variété de sphères de la vie sociale avec des conséquences qui débordent largement cette finalité économique. Sans être réductibles à leur fonction lucrative, les données massives et les algorithmes sont appropriés, façonnés et déployés selon une logique qui répond aux impératifs du mode de production capitaliste et contribuent à modifier ce système en retour.

Nous croyons d’ailleurs, comme d’autres, que les craintes associées aux dangers de l’IA, des robots et des algorithmes constituent souvent au fond des anticipations de menaces liées au fonctionnement du capitalisme. Comme le note l’écrivain de science-fiction Ted Chiang, « la plupart de nos craintes ou de nos angoisses à l’égard de la technologie sont mieux comprises comme des craintes ou des angoisses sur la façon dont le capitalisme va utiliser la technologie contre nous. Et la technologie et le capitalisme ont été si étroitement imbriqués qu’il est difficile de distinguer les deux[5] ». Certaines personnes craignent par exemple que l’IA finisse un jour par nous dominer, nous surpasser ou nous remplacer. Or, derrière le scénario catastrophe d’une IA toute-puissante version Terminator[6] ou de la « superintelligence » présentant un risque existentiel pour l’humanité du philosophe Nick Bostrom se cache la domination actuelle des entreprises capitalistes. Le problème n’est pas l’IA en soi, mais le rapport social capitaliste qui l’enveloppe et qui détermine en bonne partie sa trajectoire. Un autre problème se surajoute : le capital algorithmique est lui-même imbriqué dans d’autres rapports sociaux comme le patriarcat, le colonialisme, le racisme, la domination de l’État.

Certains diront qu’il faut abolir l’IA – ou certaines de ses applications –, saboter les machines algorithmiques, refuser en bloc la technologie, mais ce sont là des réactions qui s’attaquent seulement à la pointe de l’iceberg. Nous sommes confrontés aujourd’hui à une dynamique similaire à celle que Marx observait à son époque, celle de la révolution industrielle où la machine commençait déjà à remplacer une partie du travail humain. Aujourd’hui, la « quatrième révolution industrielle », célébrée par Klaus Schwaub, représente au fond une révolution technologique qui relance la dynamique d’industrialisation, mais à l’aide de machines algorithmiques et de systèmes décisionnels automatisés. La réaction néoluddite qui vise à détruire ces machines est tout à fait normale et prévisible, mais il faut voir ici qu’il est vain d’avoir peur de ChatGPT, des robots ou des algorithmes. Ce qu’il faut, au fond, c’est remettre en question l’ensemble des rapports sociaux qui reproduisent la domination qui se manifeste aujourd’hui en partie par le pouvoir des algorithmes.

Qu’est-ce que le capitalisme ?

Qu’entend-on exactement lorsqu’on parle de « capitalisme » ? S’agit-il d’une économie de marché où les individus se rencontrent pour échanger des biens et services, un système économique basé sur la propriété privée des moyens de production et l’exploitation du travail par les capitalistes, ou encore une dynamique d’accumulation fondée sur la logique abstraite de l’autovalorisation de la valeur qui tend à transformer le capital en « sujet automate » ? Selon la perspective que l’on adopte sur la nature du capitalisme, l’analyse du rôle exact des algorithmes sera bien différente.

Lorsque les institutions du capitalisme comme l’entreprise privée et le marché sont tenus pour acquis, l’usage des données et des algorithmes sera généralement analysé à travers la lunette des applications potentielles pour améliorer la performance des entreprises. Les algorithmes seront conçus comme des « machines prédictives » permettant d’accomplir une multitude de tâches : réduire les coûts de production, améliorer le processus de travail, optimiser les chaines de valeur, bonifier l’expérience client, guider les décisions stratégiques, etc.[7]

Si on adopte plutôt une perspective critique du capitalisme dans le sillage du marxisme classique, on aura plutôt tendance à mettre en lumière les dynamiques d’appropriation privée des nouvelles technologies, les rapports d’exploitation et les résistances des classes opprimées. Cette conception du capitalisme aura tendance à voir le monde numérique comme un « champ de bataille[8] ». En effet, le capitalisme algorithmique repose en bonne partie sur le pouvoir prédominant des géants du Web, l’exploitation du travail et de l’expérience humaine; il renforce différentes tensions, inégalités et contradictions du monde social, et de nombreux fronts de résistance luttent contre ses effets pernicieux : mouvements pour la protection de la vie privée, mobilisations contre Uber, Amazon et Airbnb, sabotage de dispositifs de surveillance, Data 4 Black Lives[9], etc. Cela dit, les analyses uniquement axées sur la « lutte des classes » et les approches inspirées du marxisme classique ont tendance à réduire le capitalisme numérique à un affrontement entre les géants du Web – les capitalistes – et les femmes et hommes « utilisateurs » ou « travailleurs du clic » qui se font exploiter ou voler leurs données. On omet ainsi l’analyse conceptuelle minutieuse des rouages de l’accumulation capitaliste et des rapports sociaux qui structurent la société capitaliste dans son ensemble et sur laquelle il faut se pencher.

C’est ce qu’une troisième approche critique, distincte du marxisme classique, cherche à faire : adopter une vision holistique qui considère le capital comme « une totalité qui prend la forme d’une structure quasi objective de domination […] une situation d’hétéronomie sociale qui prend la forme d’un mode de développement aveugle, incontrôlé et irréfléchi sur lequel les sociétés n’ont aucune prise politiquement[10] ». Dans la lignée des critiques marxiennes de la valeur, l’analyse du capitalisme se concentre sur les catégories centrales de la société capitaliste comme le travail abstrait, la marchandise et la valeur. La critique du capitalisme comme « totalité sociale aliénée » implique donc la critique radicale de la valeur et des « médiations sociales fétichisées », de « l’imaginaire communicationnel du capitalisme cybernétique » et de la « révolution culturelle de l’idéologie californienne » qui nous mènerait vers un « monde numériquement administré[11] ». Or, ces approches totalisantes, malgré leurs prouesses théoriques, ont tendance à éluder les conflits, résistances et possibilités d’émancipation présentes dans le développement économique.

Ces deux approches critiques marxiennes, prenant appui l’une sur les conflits de classes et l’autre sur la logique totalisante du capital, ont donc chacune leurs forces et leurs faiblesses. Selon nous, le capital algorithmique tend à coloniser l’ensemble des sphères de l’existence humaine par une dynamique d’accumulation basée sur l’extraction des données et le développement accéléré de l’IA. Le capitalisme ne se réduit pas à un rapport de force entre classes antagonistes : il représente bel et bien une totalité sociale. Or, il faut également éviter le piège fataliste des approches surplombantes et réifiantes, et analyser en détail les rapports de pouvoir et les conflits qui se déploient dans le sillon de la montée du capital algorithmique. Il est donc nécessaire, pour une théorie critique des algorithmes, d’articuler les deux logiques distinctes, mais complémentaires du capital : « la logique du capital comme système achevé » et « la logique stratégique de l’affrontement[12] ».

Quelles possibilités d’émancipation?

L’accent plus ou moins grand porté sur la logique du capital (comme dynamique totalisante) ou la stratégie d’affrontement (faisant intervenir l’agentivité des acteurs) implique une évaluation différenciée des possibilités d’émancipation sous le capitalisme algorithmique. Des approches centrées sur la lutte des classes soutiennent parfois que l’impact de l’IA est grandement exagéré par les capitalistes, lesquels visent à effrayer le mouvement ouvrier des dangers imminents de l’automation. Astra Taylor soutient par exemple que les récits catastrophistes liés à l’arrivée des robots et du chômage technologique de masse sont des tentatives délibérées d’intimider et de discipliner les travailleurs et travailleuses en brandissant le discours idéologique de ce qu’elle nomme la fauxtomation[13]. Sans doute, des capitalistes utilisent-ils cette rhétorique de la sorte. Nous aurions tort cependant de minimiser l’impact de l’IA sur le processus de travail, les emplois et des secteurs entiers de l’économie. Même si les estimations sur le chômage engendré par l’automation varient grandement (de 9 % à 50 % en fonction des méthodologies utilisées), il faut bien reconnaitre la tendance du capital algorithmique à remplacer les humains par les robots, ou du moins à les compléter, surveiller et contrôler par de nouveaux moyens algorithmiques sophistiqués. S’il pouvait achever sa logique en totalité, le capital algorithmique viserait à développer un capitalisme pleinement automatisé.

À l’opposé du spectre, les auteurs du courant « accélérationniste » évaluent positivement l’horizon d’une automation généralisée, pour autant qu’elle soit combinée à une socialisation des moyens de production[14]. Les technologies algorithmiques jetteraient ainsi les bases d’une économie postcapitaliste au-delà du travail[15]. D’autres courants comme le xénoféminisme et les théoriciens du « capitalisme cognitif » soulignent également le potentiel émancipateur du travail immatériel, des pratiques de collaboration, de l’hybridation humain-machine et des nouvelles technologies[16]. À l’instar de Lénine, selon qui « le communisme, c’est le gouvernement des soviets plus l’électrification du pays », on pourrait dire que les courants anticapitalistes techno-optimistes considèrent aujourd’hui que le cybercommunisme signifie « le revenu de base plus l’intelligence artificielle[17] ». Cela n’est pas sans rappeler la position de Trotsky sur le taylorisme, « mauvais dans son usage capitaliste et bon dans son usage socialiste ». On trouve la vision la plus aboutie de ce marxisme accélérationniste chez Aaron Bastani et sa vision d’un « communisme de luxe entièrement automatisé » (fully automated luxury communism), qui propose l’utopie d’une économie postrareté par le plein déploiement des forces productives algorithmiques au-delà des contraintes de la logique capitaliste. Dans cette perspective, le capital algorithmique creuserait sa propre tombe, en laissant miroiter la possibilité d’un monde pleinement automatisé, basé sur l’extraction de minerai sur les astéroïdes, la production d’aliments synthétiques et la réduction drastique du travail humain[18]. Cette vision parait digne d’un Jeff Bezos ou d’un Elon Musk qui porterait soudainement une casquette socialiste.

Cela dit, il semble bien naïf de croire que l’automation algorithmique soit mauvaise sous les GAFAM, mais bonne sous le socialisme. Loin de poser les bases d’une société au-delà de la misère et des inégalités, le capital algorithmique automatise les différentes formes de domination, contribue à la surexploitation des ressources naturelles et siphonne notre temps d’attention grâce à ses multiples technologies addictives. En d’autres termes, l’extraction toujours plus intense des données et le développement actuel des algorithmes contribuent à créer les bases d’un capitalisme pleinement automatisé, accélérant la pénurie de temps et de ressources naturelles.

Enfin, il serait trompeur de se limiter à la logique du capital, en omettant les stratégies d’affrontement qui peuvent dégager des possibilités d’émancipation pour dépasser l’horizon du capitalisme automatisé. À la différence des courants technosceptiques et néoluddites qui refusent en bloc les technologies algorithmiques, il existe différentes perspectives de résistance et des stratégies anticapitalistes visant une potentielle réappropriation collective des données et des algorithmes[19]. Il est possible d’envisager les potentialités et limites liées à la planification algorithmique dans une optique d’autolimitation écologique, de justice sociale et de démocratie radicale[20].

Le capitalisme algorithmique comme ordre social institutionnalisé

Nancy Fraser a développé durant les dernières années une théorie globale du capitalisme qui comprend non seulement un mode de production économique spécifique, mais aussi une articulation avec la nature, les pouvoirs publics et le travail de reproduction sociale[21]. Cette reconceptualisation permet de saisir l’imbrication du capitalisme avec les inégalités de genre et la crise du care (les soins), les dynamiques d’expropriation et d’exploitation au sein du capitalisme racialisé, ainsi que les dynamiques complexes qui alimentent la crise écologique, laquelle exacerbe les inégalités raciales, économiques et environnementales. Ce cadre conceptuel large inspiré du féminisme marxiste permet de saisir l’enchevêtrement des multiples systèmes de domination (capitalisme, patriarcat, racisme, etc.) et d’éclairer les « luttes frontières » présentes dans différents recoins du monde social. La perspective critique de Fraser nous semble ainsi la meilleure porte d’entrée pour brosser un portrait systématique de la société capitaliste qui nous permettra ensuite de mieux comprendre comment les technologies algorithmiques reconfigurent celle-ci.

Nancy Fraser propose de voir le capitalisme comme un ordre social institutionnalisé. Que cela signifie-t-il ? Fraser définit d’abord la production capitaliste en la définissant par quatre caractéristiques fondamentales : 1) la propriété privée des moyens de production ; 2) le marché du travail ; 3) la dynamique d’accumulation ; 4) l’allocation des facteurs de production et du surplus social par le marché. Le capital algorithmique reconfigure les modèles d’entreprise (hégémonie des plateformes numériques), les formes du travail (travail digital et travail algorithmique), la dynamique d’accumulation (par l’extraction de données et les algorithmes), ainsi que l’apparition de nouveaux marchés (marchés des produits prédictifs, etc.). Mais cette caractérisation sommaire du système économique capitaliste reste largement insuffisante.

Selon Fraser, la « production économique » repose en fin de compte sur l’exploitation de trois sphères « non économiques » : la nature, le travail de reproduction sociale et le pouvoir politique, qui représentent ses conditions de possibilité. Loin de nous concentrer sur la seule économie capitaliste, il faut s’attarder sur les différentes sphères de la société capitaliste à l’ère des algorithmes. L’avantage de la perspective de Fraser est de décentrer l’analyse de la contradiction économique capital/travail pour mettre en lumière les multiples tendances à la crise du capitalisme sur le plan social, démocratique et écologique : « La production capitaliste ne se soutient pas par elle-même, mais parasite la reproduction sociale, la nature et le pouvoir politique. Sa dynamique d’accumulation sans fin menace de déstabiliser ses propres conditions de possibilité[22]. » Aujourd’hui, le capital algorithmique cherche à résoudre ses multiples crises et contradictions par l’usage intensif des données et de l’intelligence artificielle : innovations technologiques pour accélérer la transition écologique (efficacité énergétique, agriculture 4.0, voitures autonomes, robots pour nettoyer les océans), soutien des tâches domestiques et de reproduction sociale (maisons intelligentes, plateformes de services domestiques, robots de soins pour s’occuper des personnes ainées et des enfants), solutions des crises de gouvernance (ville intelligente, optimisation de l’administration publique, police prédictive, dispositifs de surveillance), etc.

Cela dit, la théorie de Fraser souffre d’un oubli majeur : elle n’aborde pas du tout la question technologique. Elle analyse l’évolution historique du capitalisme à travers ses différents stades ou régimes d’accumulation, mais elle s’arrête au stade du capitalisme néolibéral, financiarisé et mondialisé. Or, il semble bien que l’infrastructure technologique représente une autre condition de possibilité du capital, que Fraser omet de mettre dans son cadre théorique : sans système de transport et de communication, sans machines et sans outils techniques, il semble difficilement possible de faire fonctionner le capitalisme, y compris dans ses variantes mercantiles et préindustrielles. Autrement dit, Fraser semble avoir oublié les conditions générales de production dans sa théorie globale du capitalisme, y compris les technologies algorithmiques qui contribuent aujourd’hui à sa métamorphose. Pour combler cette lacune, il nous semble donc essentiel de compléter le portrait avec les contributions névralgiques de Shoshana Zuboff et de Kate Crawford, qui jettent un regard perçant sur les dimensions technologiques de l’économie contemporaine, laquelle repose de plus en plus sur la surveillance et sur l’industrie extractive de l’intelligence artificielle.

Le capitalisme de surveillance comme industrie extractive planétaire

Le livre L’âge du capitalisme de surveillance de Shoshana Zuboff offre un portrait saisissant des mutations de l’économie numérique qui a vu naitre l’émergence de nouveaux modèles d’affaires basés sur l’extraction de données personnelles et le déploiement d’algorithmes centrés sur la prédiction de comportements futurs[23]. Alors que le développement technologique des ordinateurs et de l’Internet aurait pu mener à diverses configurations socioéconomiques, une forme particulière de capitalisme a pris le dessus au début des années 2000 avant de dominer complètement le champ économique et nos vies. Voici comment Zuboff définit ce nouveau visage du capitalisme contemporain :

Le capitalisme de surveillance revendique unilatéralement l’expérience humaine comme matière première gratuite destinée à être traduite en données comportementales. Bien que certaines données soient utilisées pour améliorer des produits ou des services, le reste est déclaré comme un surplus comportemental propriétaire qui vient alimenter des chaines de production avancées, connues sous le nom d’« intelligence artificielle », pour être transformé en produits de prédiction qui anticipent ce que vous allez faire, maintenant, bientôt ou plus tard. Enfin, ces produits de prédiction sont négociés sur un nouveau marché, celui des prédictions comportementales, que j’appelle les marchés de comportements futurs. Les capitalistes de surveillance se sont énormément enrichis grâce à ces opérations commerciales, car de nombreuses entreprises sont enclines à miser sur notre comportement futur[24].

Zuboff fournit une excellente porte d’entrée pour comprendre la mutation fondatrice du capital à l’aube du XXIe siècle : l’extraction et la valorisation des données par le biais d’algorithmes se retrouvent maintenant au cœur du processus d’accumulation du capital. Elle offre aussi une deuxième contribution majeure. Selon elle, le capital de surveillance n’est pas réductible à un simple processus économique ; il donne lieu à l’émergence d’une nouvelle forme de pouvoir inquiétante : le pouvoir instrumentarien, soit « l’instrumentation et l’instrumentalisation du comportement à des fins de modification, de prédiction, de monétisation et de contrôle[25] ». Cette « gouvernementalité algorithmique » ne sert pas seulement à extraire de la valeur par le biais de publicités ciblées qui anticipent nos comportements futurs ; ces machines prédictives visent aussi à influencer, à contrôler, à nudger (donner un coup de pouce) et à manipuler nos conduites quotidiennes. Cette nouvelle logique de pouvoir dans différentes sphères de la vie sociale, économique et politique confère à cette configuration du capitalisme sa plus grande emprise sur les rapports sociaux et notre relation au monde.

Une limite de l’approche zuboffienne est qu’elle insiste beaucoup, voire peut-être trop, sur la question de la surveillance et de l’appropriation des données personnelles. Sa théorie a le mérite de décortiquer la nouvelle logique d’accumulation du capital et les mécanismes inédits de contrôle algorithmique des individus, mais elle finit par déboucher sur le « droit au temps futur », le « droit au sanctuaire », et autres revendications qui se limitent à la protection de la vie privée. La théorie de Zuboff ne permet pas vraiment de thématiser les injustices en termes de classe, de sexe et de « race » qui sont amplifiées par la domination algorithmique. Elle suggère un recadrage du capitalisme, soulignant la contradiction fondamentale entre l’extraction des données et le respect de la vie privée. La critique de l’exploitation du travail par le capital chez Marx est ainsi remplacée par la critique de l’extraction/manipulation de la vie intime des individus dans leur quotidien. Ce n’est donc pas un hasard si Zuboff passe sous silence le rôle du travail, l’extraction des ressources naturelles et les enjeux géopolitiques dans son cadre d’analyse. Pour nous, la surveillance ne représente que l’un des nombreux visages du capital algorithmique, qui a des conséquences beaucoup plus étendues.

C’est la raison pour laquelle il nous semble essentiel de compléter ce premier aperçu de Zuboff par un portrait élargi des nombreuses ramifications de l’IA dans le monde contemporain à travers l’approche riche et originale de Kate Crawford. Celle-ci propose de dépasser l’analyse étroite de l’IA qui est devenue monnaie courante de nos jours et qui la voit comme une simple forme de calcul, un outil comme le moteur de recherche de Google ou encore ChatGPT. Bien que ces multiples descriptions ne soient pas fausses, elles dissimulent néanmoins toute une infrastructure complexe en concentrant notre attention sur des technologies isolées, abstraites, rationnelles et désincarnées :

Au contraire, l’intelligence artificielle est à la fois incarnée et matérielle, faite de ressources naturelles, d’énergies fossiles, de travail humain, d’infrastructures, de logistiques, d’histoires et de classifications. Les systèmes d’IA ne sont pas autonomes, rationnels, ou capables de discerner sans un entraînement computationnel extensif et intensif basé sur de larges ensembles de données, de règles et de récompenses prédéfinies. Et compte tenu du capital requis pour bâtir l’IA à large échelle et des manières de voir qui optimisent celle-ci, les systèmes d’IA sont ultimement conçus pour servir les intérêts établis dominants. En ce sens, l’intelligence artificielle entre dans le registre du pouvoir[26].

Pour Crawford, on ne peut comprendre les algorithmes adéquatement, d’un point de vue strictement technique, sans les insérer au sein de structures et systèmes sociaux plus larges. Crawford élargit notre champ de vision en montrant que l’IA repose sur l’extraction généralisée de minerais, d’énergie, de travail humain, de données, d’affects et d’éléments de nos institutions publiques. C’est pourquoi elle propose de concevoir l’IA d’un point de vue matérialiste et holistique, en évitant les pièges d’une vision trop formelle et idéaliste telle que véhiculée par l’éthique des algorithmes.

Néanmoins, cette vision donne un aperçu encore trop parcellaire et fragmenté de ce système en voie de consolidation. La riche cartographie de Crawford donne à voir les multiples visages, territoires et manifestations de ce phénomène complexe, mais sans fournir une grille d’analyse, un cadre conceptuel ou une théorie globale permettant d’expliquer et de comprendre ces différents enjeux dans un tout cohérent. C’est pourquoi il nous semble essentiel de comprendre l’enchevêtrement complexe entre la technologie, le pouvoir et le capital au sein d’une théorie globale du capitalisme algorithmique qu’il reste à déployer[27].

Par Jonathan Martineau, professeur adjoint au Liberal Arts College de l’Université Concordia et Jonathan Durand Folco, professeur à l’École d’innovation sociale Élisabeth-Bruyère de l’Université Saint-Paul.


NOTES

Cet article est une version remaniée de la thèse 2 du livre de Jonathan Martineau et Jonathan Durand Folco, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023.

  1. Nancy Fraser et Rahel Jaeggi, Capitalism. A Conversation in Critical Theory, Cambridge, Polity Press, 2018.
  2. Viktor Mayer-Schönberger et Thomas Ramge, Reinventing Capitalism in the Age of Big Data, New York, Basic Books, 2018.
  3. Voir par exemple Nick Dyer-Witheford, Atle Mikkola Kjøsen et James Steinhoff, Inhuman Power. Artificial Intelligence and the Future of Capitalism, Londres, Pluto, 2019.
  4. Cité par Ezra Klein, « The imminent danger of A.I. is one we’re not talking about », The New York Times, 26 février 2023.
  5. NDLR. Terminator est un film américain de science-fiction sorti en 1984 où le Terminator est une créature robotisée programmée pour tuer.
  6. Ajay Agrawal, Joshua Gans et Avi Goldfarb, Prediction Machines. The Simple Economics of Artificial Intelligence, Boston, Harvard Business Review Press, 2018.
  7. Philippe de Grosbois, Les batailles d’Internet. Assauts et résistances à l’ère du capitalisme numérique, Montréal, Écosociété, 2018, p. 30.
  8. NDLR. Mouvement de militants et militantes et de scientifiques dont la mission est d’utiliser la science des données pour améliorer la vie des Noirs·es.
  9. Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016, p. 38.
  10. Ibid., p. 60.
  11. Pierre Dardot et Christian Laval, Marx, prénom : Karl, Paris, Gallimard, 2012.
  12. Astra Taylor, « The automation charade », Logic, n5, 2018.NDLR. Fauxtomation est un mot inventé par Taylor et formé de « faux » et d’« automatisation » pour exprimer comment le travail accompli grâce à l’effort humain est faussement perçu comme automatisé.
  13. Nick Srnicek et Alex Williams, Inventing the Future. Postcapitalism and a World Without Work, Brooklyn, Verso, 2015.
  14. Paul Mason, Postcapitalism. A Guide to Our Future, Londres, Allen Lane, 2015.
  15. Helen Hester, Xenofeminism, Cambridge (UK) /Medford (MA), Polity Press, 2018 ; Laboria Cuboniks (Collectif), The Xenofeminist Manifesto. A Politics for Alienation, Brooklyn, Verso, 2018 ; Michael Hardt et Antonio Negri, Empire, Paris, Exils, 2000 ; Yann Moulier Boutang, Le capitalisme cognitif. La nouvelle grande transformation, Paris, Amsterdam, 2007.
  16. Dyer-Witheford, Kjøsen et Steinhoff, Inhuman Power, 2019, op. cit., p. 6.
  17. Aaron Bastani, Fully Automated Luxury Communism, Londres, Verso, 2020.
  18. Voir à ce sujet, Jonathan Durand Folco et Jonathan Martineau, « Cartographier les résistances à l’ère du capital algorithmique », Revue Possibles, vol. 45, n° 1, 2021, p. 20-30.
  19. Cédric Durand et Razmig Keucheyan, « Planifier à l’âge des algorithmes », Actuel Marx, n° 1, 2019, p. 81-102.
  20. Nancy Fraser, « Behind Marx’s hidden abode », New Left Review, n86, 2014 ; Nancy Fraser, « Expropriation and exploitation in racialized capitalism : a reply to Michael Dawson », Critical Historical Studies, vol. 3, no 1, 2016 ; Nancy Fraser, « Contradictions of capital and care », Dissent, vol. 63, no 4, 2016, p. 30‑37 ; Fraser et Jaeggi, Capitalism, 2018, op. cit ; Nancy Fraser, « Climates of capital », New Left Review, no 127, 2021.
  21. Fraser et Jaeggi, Capitalism, 2018, op. cit., p. 22.
  22. Soshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2020.
  23. Ibid., p. 25.
  24. Ibid., p. 472.
  25. Kate Crawford, Contre-atlas de l’intelligence artificielle. Les coûts politiques, sociaux et environnementaux de l’IA, Paris, Zulma, 2022, p. 8.
  26. C’est là l’objet des 20 thèses de notre livre, Le capital algorithmique, 2023, op. cit.

 

Articles récents de la revue

Notes de lecture (Hiver 2024)

Robert Leroux, Les deux universités, Paris, Éd. du Cerf, 2022, Des essais de professeurs d’université annonçant gravement la mort de l’université sont publiés depuis au moins...