Accueil- Actualités et conjoncturesÀ l'ère du capitalisme digitalisé

À l’ère du capitalisme digitalisé

Deux variables peuvent être considérées comme fondatrices de la modernité : la philosophie humaniste et la révolution scientifique. Nés et ancrés dans un moment très particulier de l’histoire européenne, ils ont doté le capitalisme naissant d’une base à la fois idéologique et matérielle. L’humanisme d’aujourd’hui semble accentué par la croissance de l’intelligence artificielle et ses conséquences pour l’avenir.

Pour dépasser un ordre social structuré autour du religieux, on a utilisé une base philosophique qui considérait l’être humain comme le centre du monde, ainsi qu’un élan inhabituel à la science, qui a ensuite été érigée comme le noyau d’une sorte de culte du progrès. Ainsi, si par l’humanisme l’esprit pouvait s’affranchir des présupposés hiérarchiques et socio-économiques successoraux, avec la méthode scientifique les explications célestes et dogmatiques de la nature venaient d’être détrônées.

C’était une époque de ruptures fortes pour cette société européenne. Le monde a commencé à être conçu à la suite du calcul mathématique, les principes de la physique mécanique ont imprégné le noyau des sciences naturelles et l’être humain est devenu la mesure de toutes choses, dans son désir de connaissance. Le lien intime entre l’humanité et la science avait son corrélat dans les besoins d’une bourgeoisie montante, qui utilisait le progrès scientifique pour l’appliquer comme technique de production manufacturière. Autrement dit, à un certain moment, les bienfaits de la science ont cessé de rayonner le bien commun, la connaissance générale et « philanthropique » du monde, de montrer son vrai visage et de commencer à opérer au sens strict économique, au sein de l’usine.

Marx lui-même pouvait voir la contradiction imminente, exprimée autour du XIXe siècle dans l’antagonisme entre la classe ouvrière et les instruments techniques de production : “Dans les machines, la dynamique et le fonctionnement de l’ instrument de travail gagnent en indépendance vis- à- vis de l’ouvrier (…) Dans l’industrie manufacturière et manuelle, l’ouvrier utilise l’outil : dans l’usine, il sert la machine. Là, les mouvements de l’instrument de travail partent de lui ; ici, c’est lui qui doit suivre leurs mouvements. (…) L’instrument de travail est confronté en tant que capital , au cours du processus de travail, au travailleur lui-même ; elle se dresse devant lui comme le travail mort dominant et absorbant la force de travail vivante. (…) C’est ainsi que s’explique le phénomène singulier révélé par l’histoire de l’industrie moderne, consistant en la machine à briser toutes les barrières morales et naturelles de la journée de travail”. 1

Cette description de Marx, reflet du capitalisme entrant déjà dans sa phase de grande industrie, était aussi une prédiction par rapport à l’approfondissement et à la mutation qu’allait adopter le phénomène, une situation que, dans le même temps, le philosophe Samuel Butler a également mis en garde, bien qu’extrême ses conclusions en proclamant la nécessité de déclarer la guerre aux machines :

“Jour après jour, les machines gagnent du terrain parmi nous ; jour après jour nous devenons plus soumis à eux ; de plus en plus d’hommes sont quotidiennement obligés d’en prendre soin, de plus en plus d’hommes consacrent chaque jour les énergies de toute leur vie au développement de la vie mécanique. Le résultat n’est qu’une question de temps, mais le temps viendra où les machines acquerront une véritable suprématie sur le monde et ses habitants. Notre opinion est que la guerre à mort contre eux doit être immédiatement proclamée”. 2

La consolidation de la machine comme instrument de travail, historiquement réaffirmée par l’exploitation de nouvelles sources d’énergie, pourrait bientôt intégrer l’automatisation de ses procédés. Une fois ce processus accompli, le capitalisme européen, ancré dans la surproduction de marchandises, s’est lancé dans une féroce dispute sur les marchés coloniaux. Le XXe siècle , celui des guerres mondiales et des grands génocides, a instauré dans son sillage une sorte d’universalisation du paradigme humano-technologique. Mais ses deux variables constitutives, loin de s’assimiler, approfondirent son chemin de contradictions : la vigoureuse avancée scientifique non seulement subjugua la nature, mais à partir de son autonomie elle commença à bouleverser l’héritage humaniste historique.

La révolution numérique

Les algorithmes, en tant que procédures de calcul, existent depuis des temps immémoriaux. Ricardo Peña Marí écrit que des algorithmes ont été utilisés dans l’ancienne Mésopotamie il y a 3000 ans pour décrire certains calculs liés aux transactions commerciales: « Au XVIIe siècle , les premières aides calcul mécaniques apparues sous la forme de calculatrices de bureau et dans le siècle xix le premier des machines programmables sont conçues. Les ordinateurs tels que nous les connaissons aujourd’hui datent cependant du milieu du 20e siècle . A partir de là, les algorithmes atteignent un développement sans précédent » 3 Autrement dit, la nouveauté de ce développement n’était pas l’algorithme lui-même, mais son intégration dans un système plus vaste, celui de l’informatique. Vers le milieu du 20e siècle, le mathématicien anglais Alain Turing était parvenu à concevoir un modèle de calcul (algorithme) susceptible d’être généralisé à n’importe quelle machine ou ordinateur. En théorie, tout problème pouvant être traduit en termes mathématiques, dans un certain langage symbolique, pourrait être résolu. Bien qu’encore imaginaire, la “machine de Turing” a servi de base à l’émergence de l’ordinateur numérique, formalisant un système d’entrées et de sorties capable de reconnaître une langue puis d’exécuter de multiples fonctions programmables. À son tour, la possibilité d’un langage de programmation universel est apparue, la capacité automatique et récursive de “calculer”, de calculer. La vérification pratique de la théorie de Turing se développera une fois la Seconde Guerre mondiale terminée, et avec elle, la fabrication des premiers calculateurs électroniques.

Puis, dans les années 1960, alors que la guerre froide conduisait à une carrière scientifique et technologique sans précédent, des progrès considérables ont été réalisés dans le domaine de l’électronique et il a été possible d’« intégrer » des ordinateurs, en réduisant leurs composants. Une possible périodisation du processus les identifie en deuxième génération, à partir de l’invention du transistor, et en troisième génération, avec l’émergence du système intégré. Sur la base de ces nouvelles technologies, le système d’exploitation multiprogrammation a également vu le jour, capable de traiter différents programmes simultanément et donc de réduire considérablement les temps d’exécution. L’entreprise emblématique de toutes ces transformations était l’American International Business Machines Corporation ( ibm ), mais il s’agissait encore de projets coûteux.

Avec les années 1970 sont apparues les ordinateurs de quatrième génération, dont l’élément révolutionnaire était l’invention du microprocesseur. Manuel Castells soutient que « l’arrivée du microprocesseur en 1971, avec la possibilité de mettre un ordinateur sur une puce, a bouleversé le monde de l’électronique, en fait le monde lui-même » 4 . Cela a donné naissance aux micro-ordinateurs et, avec eux, aux ordinateurs personnels à usage civil et commercial ( pc ). Maintenant, la réduction de la taille et du coût des machines annonçait l’arrivée de la « révolution technologique ». Le monde est devenu information, capable d’être enregistré à grande échelle et numériquement.

Enfin, dans les années 1980, Internet a été « inventé » ( réseaux interconnectés), c’est-à-dire la possibilité de partager ces informations via des réseaux interconnectés. L’ordinateur, jusqu’alors limité au stockage et au traitement de l’information, a commencé à fonctionner comme un instrument embryonnaire de connexion entre les personnes et les distances. Mais à la question prémonitoire de Turing de savoir si l’ordinateur pouvait penser, la réponse est restée un « non » consensuel. Bien qu’elle ait occupé une place de plus en plus importante, la centralité de l’humanisme était toujours maintenue, cette dimension mentionnée comme constitutive de la modernité et qui représente notre autonomie intellectuelle. L’informatique fonctionnait dans sa fonction d’outil/instrument et l’idée d’intelligence artificielle, un entretien en théorie depuis l’Antiquité, était loin d’être une réalité.

Il est vrai qu’il avait déjà montré ses premiers signes de possibilité dans les années 1960, avec l’introduction des systèmes de pilotage automatique des avions. Puis, dans les décennies suivantes, il suscite une plus grande anticipation avec la création de « systèmes experts », premières tentatives d’utilisation d’algorithmes pour simuler le raisonnement humain. Mais en ajoutant quelques échecs dans ce domaine, comme le projet informatique japonais de “cinquième génération”, il n’y a pas eu de grandes avancées au cours des années 1980. La vraie révolution a eu lieu dans les années 1990, avec la diffusion d’Internet. Les ordinateurs ont commencé à reproduire les nouvelles pages Web et à multiplier les communications instantanées entre les parties les plus éloignées du globe. Ces mutations étonnantes laissaient place à des besoins conséquents en infrastructures :5  Cette transformation, construite parallèlement aux développements de la microélectronique, pourrait être présentée comme la base nécessaire à l’empire ultérieur des technologies de l’information et de la communication ( tic ). l’être humain en construisant une réalité parallèle : un monde numérique capable d’enregistrer et de reproduire instantanément les informations disponibles sans compter sur l’observation ou la présence in situ. C’est dans ce contexte que l’intelligence artificielle « prend définitivement son essor » : les systèmes experts commencent à généraliser avec succès leurs facultés « interprétatives » sur la base de la déduction et des progrès sont réalisés vers une émulation entièrement automatisée du raisonnement cognitif. Le corollaire emblématique de ce processus est venu en 1997, lorsque le programme Deep Blue, conçu par IBM, a battu une partie d’échecs contre Garri Kasparov, le meilleur joueur du monde à l’époque.

En général, le cœur du changement était qu’un ordinateur pouvait non seulement stocker et traiter des informations, mais aussi déduire et projeter des scénarios. Quelque chose de très similaire à la “pensée” humaine. Un passage de « l’ordinateur processeur » à « l’ordinateur intuitif », de l’informatique naissante à la cybernétique ou, en d’autres termes, de la révolution numérique à l’intelligence artificielle. Il s’agit d’un phénomène ancien, avec des avancées et des reculs seulement esquissés ici, mais qui s’est solidement implanté vers la fin du siècle dernier. Ce processus a entraîné la croissance impressionnante des entreprises technologiques basées sur le marketing Internet, un phénomène qui, au milieu de l’empire du capital financier, s’est rapidement traduit par un boom spéculatif. La bulle a finalement éclaté en 2000, avec la chute de l’ indice boursier NASDAQ , dans ce qui était également connu sous le nom de “crise des dot-com”.

De la révolution numérique à l’intelligence artificielle

Avec le nouveau siècle, et avec l’infrastructure d’un monde numérisé déjà disponible, l’investissement dans les mécanismes d’intelligence artificielle s’approfondit et définit la tendance générale dans le secteur technologique. Derrière lui se cache un nouveau modèle économique, qui n’est plus basé sur la commercialisation d’Internet, mais s’engage en faveur de l’universalisation d’Internet comme moyen d’accès à l’information de la société civile. Le nouveau schéma pointe désormais vers l’extraction et le traitement constants des données (personnelles, professionnelles, institutionnelles). Et il n’est plus pris en charge – ou pas seulement – sur un ordinateur de bureau, mais sur une présence croissante de la technologie comme moyen d’enregistrer autant de données que possible.

Ce phénomène s’est consolidé vers la deuxième décennie du 21e siècle , avec des plateformes perfectionnées pour stimuler les relations addictives et avec des algorithmes qui ont évolué vers la personnalisation des contenus en ligne . Ce qu’Eli Pariser appelle une « bulle filtrante » est générée : les promesses démocratisantes annoncées par Internet s’estompent et les préjugés et la manipulation de l’information s’approfondissent 6 . Sur nos appareils, nous ne recevons que des informations liées à nos penchants, et ainsi les discours de haine se multiplient ou certaines théories du complot dépassées reprennent de la vitalité.

Comme élément clé de la démarche, Éric Sadin identifie « l’universalisation du smartphone » 7, tandis que Nick Srnicek, parlant de « l’internet des objets » 8, décrit une pénétration plus large de l’informatique, consistant en la mise en place de puces et de capteurs dans d’ innombrables appareils et appareils électroménagers 9. Des enjeux tels que l’individualisation et la miniaturisation des objets technologiques, leur géolocalisation et leur portabilité, l’accès prédéterminé aux réseaux sociaux et aux plateformes sont des manifestations de cette tendance à enregistrer en permanence chaque mouvement humain à travers la planète, dans un transit de plus en plus virtuel de notre stock.

Les extrémités sont et peuvent être multiples. Sur le plan économique, la monétisation des profils d’utilisateurs peut être pesée à travers l’interconnexion des réseaux sociaux, des médias et des boutiques en ligne . C’est un domaine dans lequel se distinguent généralement les plateformes publicitaires telles que les logiciels Facebook ou Google, et où le fonctionnement des algorithmes personnalisés est vérifié comme l’élément central. Pour illustrer cette dynamique, on peut utiliser la phrase bien connue : « si le service est gratuit, le produit c’est vous ». Vos informations, qui sont stockées et classées… sont “converties” en données et commercialisées comme espace publicitaire.

Mais quand il s’agit de politique, en revanche, on peut parler de stratégies d’espionnage ou, avec Shoshana Zuboff, d’un « capitalisme de surveillance » 10. Leurs logiques opèrent souvent au niveau interne de l’État, sous-tendant certaines politiques publiques ; ou à défaut, montrer les frontières totalitaires de tel ou tel gouvernement. Mais ils opèrent surtout au niveau géopolitique, rendant les différends militaires et commerciaux extrêmement complexes dans un monde qui se tourne résolument vers le multilatéralisme. Le cyberespace s’inscrit ainsi comme une composante décisive des relations internationales, sur laquelle s’inscrit un certain consensus lorsqu’on le considère comme le « cinquième domaine de la guerre », aux côtés des dimensions classiques de la terre, de la mer, de l’air et de l’espace 11. Dans tous les cas, la perte de la vie privée devient une exigence du nouveau paradigme, qui s’exprime par une intrusion remarquable de la technologie dans notre vie quotidienne ; c’est-à-dire d’une poignée d’entreprises technologiques. En manipulant d’énormes quantités de données et en les traitant à des vitesses exponentielles à l’aide d’algorithmes sophistiqués, nous commençons à travailler sur la prédiction et/ou la direction de nos pensées, comportements… voire nos émotions !

La logique algorithmique génère dans son sillage une propension marquée à la concentration économique, voire au monopole, puisque plus un algorithme alimente de données, plus il fonctionne efficacement 12. Ainsi, à une tendance qui montre une certaine régularité du capitalisme, comme celle de la concentration, s’ajoute l’aspect particulier et purement opérationnel d’un marché comme celui de la donnée. Dans son mode opératoire , il fait appel à toutes sortes d’outils : recherches en ligne , cookies de suivi sur les pages web, consommations avec des cartes, déplacements via les GPS, procédures virtuelles, mouvements bancaires, relevés d’empreintes digitales et même reconnaissances faciales.

Il y a ici un changement de paradigme par rapport à la révolution numérique originelle, et il renvoie à la captation pure et simple de nos subjectivités. C’est pourquoi tant Sadin que Srnicek associent le nouveau siècle à une nouvelle étape de la révolution technologique : tandis que le premier conceptualise une nouvelle « anthropologie », sorte de couplage hybride homme-machine, le second choisit de parler d’un « capitalisme de plateformes ».

Un capitalisme intelligent ?

Plusieurs fois, il a été question de nouvelles étapes du capitalisme, ou de phases de la révolution industrielle, lors de l’examen de différents changements structurels. Le nouveau siècle ne pourrait pas être l’exception, quand il y a une hégémonie inhabituelle des entreprises et un nouveau modèle d’accumulation du grand capital : les données. C’est bien le cas, et pour le constater, non seulement il suffit de mesurer la taille relative des big tech 13, mais on voit aussi qu’elles s’emparent du dernier maillon de la chaîne de valeur : les utilisateurs ou consommateurs, à travers les données .

Dans une analogie illustrative, Esteban Magnani affirme : « La matière première est notre intelligence, les moyens de production les algorithmes et nos recherches le travail qui nous permet de les transformer en services monétisables. La variable absente est le salaire correspondant à cet emploi, ce qui permet de comprendre que certaines entreprises se sont enrichies et si vite » 14. Au-delà des discussions sur la question de savoir si nos interactions virtuelles sont proprement du « travail » – à bien des égards nous dirions qu’elles ne le sont pas – la vérité est que, avec Zuboff, on peut parler d’une appropriation du « plus produit par le comportement » 15.. De ce point de vue, on pourrait dire que les grandes entreprises technologiques ont trouvé une alternative qui va même au-delà de la dérégulation et de la précarisation du travail – globalement ancrée sous l’impersonnalité qu’implique la virtualité – et qui réside dans la monétisation du lien social, que c’est-à-dire la possibilité de continuer à profiter pendant et avec le temps libre des gens.

Pour le reste, ce sont des changements qui ne semblent pas entraver le modèle de valorisation financière ; Bien au contraire, ils la soutiennent, et c’est pourquoi ces conglomérats sont souvent appelés sociétés techno-financières (fintech). L’émergence peut-être la plus symptomatique de ce cours est celle des crypto-monnaies, si en vogue ces dernières années. À cet égard, nous pouvons nous référer au Bitcoin bien connu , à l’ Ethereum ou au Litecoin également en activité et à la tentative (échoue) de Facebook avec Libra. C’est une tendance typique d’un modèle spéculatif-technologique qui fait appel au langage cryptographique comme moyen d’exagérer la déréglementation financière. Et cela fonctionne grâce à la technologie blockchain, qui constitue par essence un réseau ouvert et communautaire qui, de manière décentralisée, enregistre, stocke et enfin permet une multitude de transactions virtuelles. Ses opérations, qui ont commencé à accueillir des œuvres d’art ou des goûts d’élite, s’orientent progressivement vers l’immobilier, en plus des opérations illégales.

Ces aspects n’impliquent cependant pas une indépendance du capital technologique vis-à-vis de ses pays d’origine, ou du moins pas de manière visiblement prépondérante. Au contraire, dans de nombreux cas, leurs controverses sur les marchés ou les bases de données semblent guider la lutte géopolitique. Sur la scène internationale, la querelle entre la Chine et les États – Unis s’exprime actuellement dans la course au leadership de l’intelligence artificielle, notamment dans ce qui constitue sa nouvelle base d’opérations : la technologie 5G, un réseau mobile haut débit conçu à la mesure de serveurs intelligents. En ce sens, les sanctions de Donald Trump contre Huawei – toujours en vigueur – doivent être interprétées, ainsi que ses menaces contre les applications TikTok et WeChat chinois. De même, la montée en puissance rapide du géant chinois Alibaba, avec son arrivée récente sur les marchés européens, pose le premier grand défi à Amazon, et une compétition brutale se dessine sur le marché du e-commerce. Dans tous les cas, il faut considérer qu’en plus du litige commercial, le facteur stratégique qui contemple les données de millions et de millions de personnes opère.

Ainsi, par un facteur ou un autre, les investissements en intelligence artificielle se multiplient, au point qu’ils constituent un maillon transcendantal dans le format actuel de la concurrence capitaliste : Google est le plus gros investisseur dans ce domaine, mais Amazon, Salesforce, Facebook et Microsoft sont Ils investissent également massivement dans l’ IA 16. Cette tendance peut être étendue aux grandes entreprises en général : dans son enquête traditionnelle sur l’état de l’intelligence artificielle, le cabinet de conseil américain McKinsey & Company affirme qu’en 2019 son utilisation a augmenté de 25 % par rapport à l’année précédente, alors qu’en 2020 la moitié des entreprises consultés ont déclaré avoir intégré leurs mécanismes dans au moins un élément d’affaires. 17 De toute évidence, le phénomène est déjà consolidé. D’où, de temps en temps, on entend des nouvelles d'”entrepreneurs” qui produisent un algorithme pour ceci, un algorithme pour l’autre… C’est celui qui parvient à automatiser certains de ses aspects décisionnels. C’est une orientation imparable des capitalismes centraux. C’est ce qui permet à Sadin de parler de « silicolonisation du monde », référence ingénieuse à la colonisation exercée par le paradigme de la Silicon Valley sur le monde occidental.

En ce sens, elle constitue aussi un mode de domination sur les périphéries. Les entreprises technologiques des pays centraux reproduisent les pratiques coloniales historiques, uniquement soutenues par de nouveaux arguments « innovants ». L’intervention se déroule souvent sous le couvert de la « modernisation » et implique, à proprement parler, l’intervention habituelle sur les politiques publiques. Une sorte d’approfondissement du nouveau management public inauguré par le néolibéralisme anglo-saxon des années 1980 qui, dans sa tentative incessante de supplanter le politique, finit par coopter les différents gouvernements dociles de la carte (généralement libéraux). Elle dénote dans son sillage une déshumanisation croissante des rapports sociaux et, du même coup, écrase tout vestige de souveraineté nationale.

En Amérique latine, par exemple, il existe des politiques pratiquement nulles concernant la protection des données et la construction de serveurs nationaux – ou régionaux –, une question d’importance stratégique vitale qui pourrait peut-être être traitée dans un autre écrit.

Où on s’en va ?

Avec ces changements dans le nouveau siècle, non seulement une mutation du capitalisme doit être identifiée, comme tant d’autres, mais la possibilité d’une nouvelle ère, d’un nouveau modèle civilisationnel. Une situation que Daniel Crevier, déjà au début des années 90, pouvait voir avec une clarté étonnante :

“Qu’adviendra-t-il des humains si les chercheurs en intelligence artificielle réussissent, nous obligeant à partager le monde avec des entités plus compétentes que nous ? Faudra-t-il attendre une nouvelle Renaissance ou l’apparition d’espèces qui nous remplaceront ? Et devons-nous nous appuyer sur ces créations pour prendre des décisions à notre place, non seulement économiques ou scientifiques, mais aussi juridiques, sociales ou morales ?” 18

L’avancée permanente des technologies de l’intelligence artificielle conduit sous tous ses aspects vers le « remplacement humain ». Il ne s’agit plus que la technologie remplace la main-d’œuvre dans certains domaines, ni même son aide permanente dans la vie quotidienne. Dans sa dynamique libéralisée, sans aucune régulation, le processus semble tendre vers l’occupation de nos espaces de décision, vers le remplacement en douceur de la condition humaine. En ce sens, le chercheur Enzo Girardi précise :

“Ces méga-entreprises interprètent et exécutent, en fait, une idéologie techno-libérale universalisante qui sert d’argument de légitimité. Ils postulent la raison techno-scientifique qui présente la technologie comme l’outil définitif, celui qui résoudra les problèmes en suspens de l’être humain. L’ontologie techno-libertaire consiste à disqualifier l’action humaine au profit d’un être computationnel jugé supérieur”. 19

Pour prendre une dimension réelle de la situation, il faut considérer que l’intelligence artificielle a la capacité d’apprentissage automatique. Cela signifie que les algorithmes peuvent être perfectionnés automatiquement dans l’analyse de l’information, ce qui leur permet de générer leurs propres modèles de connaissances et de les affiner à des niveaux inconcevables. Et il faut aussi considérer que le moteur de ce maelström est le capitalisme basé sur la dérégulation d’internet, qui avance non seulement sur l’espace public mais, comme on l’a vu, aussi sur notre propre existence.

En substance, le problème est toujours la libération des « forces vives » du capital, quel que soit leur mode d’accumulation. Mais dans ce cas, il semble franchir une certaine limite, transversale à l’espèce et non plus seulement aux secteurs de travail. En ce sens, le philosophe allemand Markus Gabriel soulève une possible ligne d’action :

“Internet semble être mondial, mais ce n’est pas parce que les serveurs sont dans des endroits bien définis. Internet n’est pas au paradis. Internet est bien sur Terre, mais invisible. Où sont tous les serveurs ? Ils ne se voient pas. La possibilité de réguler Internet devrait passer par les serveurs . Pour contrôler la monarchie Internet, il faut attaquer les serveurs ; c’est exactement comme le film “la matric”e. Dans le jeu, vous ne pouvez pas attaquer la Matrice car elle n’est pas dans l’illusion. La Matrice est la base matérielle, en l’occurrence les serveurs. La Silicon Valley est la concentration du pouvoir économique et du pouvoir idéologique. vingt

De toute évidence, la réglementation par les États-nations est impérative. Dilma Rousseff au Brésil a essayé avec la loi-cadre civile sur Internet, qui a établi des droits et des obligations pour les utilisateurs et les fournisseurs. Pedro Ekman, l’un des promoteurs de cette règle, a déclaré : « Il n’y a aucune loi similaire dans le monde. Il existe des lois sur la neutralité en Europe, au Chili et dans d’autres pays, mais il n’y en a pas. En ce sens, le Brésil ouvre la voie à un débat à suivre sur la démocratisation de la communication de masse » 21. Mais le lobby déchaîné a été très fort : la loi a fini par être régulée le 11 mai 2016 22 et le lendemain, le 12, Rousseff a été démise de ses fonctions et sa mise en accusation a été confirmée.

L’Union européenne, de son côté, malgré de fortes campagnes de Google et YouTube pour “sauver internet”, a déjà le texte de ses deux projets de loi prêt : la loi sur les services numériques et la loi sur les marchés numériques. Il cherche à générer un cadre réglementaire pour ses pays membres, qui fonctionne comme un stimulant pour les petites et moyennes plateformes, estimées à 90 % et en totale subordination aux géants technologiques. Dans cette ligne démocratique, il essaie également de réglementer les contenus Internet illégaux et de respecter les droits professionnels dans le journalisme.

Dans la même veine, bien que peut-être moins profonde, est la loi récemment adoptée par l’Australie, qui oblige Facebook et Google à payer les médias nationaux pour la reproduction de leurs informations 23. C’est un signe clair de lutte contre la relation de dépendance que ces plateformes exercent de facto, en l’occurrence sur les médias.

La nécessité d’un arbitrage étatique est claire et doit être reproduite dans d’autres pays. La voie est la régulation des grandes plates-formes et la subordination de la technologie aux objectifs communautaires

1.K. Marx : Le capital. Critique d’économie politique t. 1 vol. 1 [1867], fce, Mexico, 1973.
2.S. Butler : “Darwin Among the Machines”, lettre au rédacteur en chef de The Press , Christchurch, 13/06/1863.
3.R. Peña Marí : D’Euclide à Java. Histoire des algorithmes et des langages de programmation , Nivola, Madrid, 2006.
4. M. Castells: L âge de l’ information. Économie, société et culture 1. La société en réseau , Alianza, Madrid, 1997.
5. Entre 1995 et 2000, l’investissement dans les infrastructures de télécommunications a enregistré son record historique, tant dans les pays centraux que périphériques. Concernant l’infrastructure Internet, v. Adam Satriano : “La vie sous-marine d’Internet” dans The New York Times , 3/11/2019.
6. E. Pariser : Le filtre à bulles. Comment le réseau décide ce que nous lisons et ce que nous pensons , Taurus, Barcelone, 2017.
7. ET. Sadin : humanité augmentée. L’administration numérique du monde , Caja Negra, Buenos Aires, 2019.
8. N. Srnicek : Platform Capitalism , Caja Negra, Buenos Aires, 2018.
9. De la célèbre smart TV aux réfrigérateurs, en passant par l’investissement de Google dans Nest, un système de chauffage pour les maisons, ou le récent appareil Amazon, Echo, qui est installé dans les maisons et reste allumé 24h/24.
10. S. Zuboff : L’ère du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir , Paidós, Barcelone, 2020. Concernant l’espionnage constant, une exposition comme celle de Marta Peirano peut illustrer ceci : « Pourquoi me regardent-ils, si je ne suis personne ? », Talk TEDXMadrid, 22/09/2015, disponible sur www.youtube.com/watch?v=npe7i8wuupk .
11. Une conception qui a récemment été synthétisée par deux Américains ayant une vaste expérience du public, comme Richard Clarke et Robert Knake, dans leur livre The Fifth Domain (Penguin, New York, 2019). A noter également le discours de Barack Obama en 2009, où il définit la cyberdéfense comme un enjeu stratégique pour l’Etat et fait allusion à sa demande d’alliance urgente avec la Silicon Valley. “Le président Obama sur la cybersécurité” dans The Obama White House, chaîne YouTube, 29/05/2009, www.youtube.com/watch?v=wjfzyj4eyqm .
12. El derrotero de Facebook en la última década ilustra claramente sobre esta tendencia al monopolio (compra de Instagram en 2012; compra de Whatsapp en 2014), mientras que la reciente demanda del gobierno de EEUU para que desinvierta muestra cómo estos gigantes tecnológicos acaban por afectar el ordre public. À la même date, la Chine promouvait également des mesures antitrust, notamment dirigées contre ses principales entreprises technologiques : Baidu, Alibaba et Teccent, connue sous son acronyme BAT.
13. Pour mesurer ce fait avec quelques exemples : la valeur boursière d’Apple a atteint l’année dernière le chiffre historique de deux mille milliards de dollars, soit plus de quatre fois le PIB argentin (449 000 millions de dollars) et environ 10 % du PIB des États-Unis, la première économie sur la planète. Dans le même temps, sept des dix plus grandes entreprises mondiales en termes de capitalisation boursière dans le monde sont des méga-entreprises technologiques, qui surpassent généralement les États en investissement scientifique.
14. E. Magnani : La cage du confort. Big data, business, société et neurosciences , Auteurs, Buenos Aires, 2019.
15. L’expression exacte est surplus comportemental et se traduit également par « surplus comportemental » ou « surplus comportemental ». De telles traductions ne sont pas les plus précises, mais une clarification est nécessaire car c’est un concept central de son livre, déjà cité. L’historicisation qu’il propose identifie Google comme l’initiateur du modèle. Une illustration exemplaire du fonctionnement de ce « marché » se trouve dans Bryan Alexander : « Reading the Age of Surveillance Capitalism : chapitres 3 and 4 » sur le blog de l’auteur, 15/04/2019.
16. N. Srnicek : ob. cit.
17. McKinsey & Company : “L’état de l’IA en 2020”, 17/11/2020 , www.mckinsey.com/business-functions/mckinsey-analytics/our-insights/global-survey-the-state-of-ai-in -2020 # .
18. D. Crevier : Intelligence artificielle , Accent, Madrid, 1996.
19. E. Girardi : « Numérisation, politique et intelligence artificielle. Quel avenir peut-on espérer ? dans Nueva Sociedad No 283, 9-10 / 2019, disponible sur www.nuso.org .
20. Silvina Friera : « La haine est la logique des réseaux sociaux », entretien avec Markus Gabriel dans Página / 12 , 1/7/2019.
21. Fernando Peirone et Eleonora Fernández : « Pedro Ekman : ‘Avec Internet, vous pouvez faire de la surveillance de masse ou de la communication démocratique’ » dans Unsam News, 6/11/2014 .
22. Décret n° 8711, disponible sur www.planalto.gov.br/ccivil_03/_ato2015-2018/2016/decreto/d8771.htm .
23. Oriol Puigdemont : « L’Australie adopte une loi pionnière pour que Facebook et Google paient les médias pour les informations » dans El País , 25/02/2021.

Articles récents de la revue