Today, we pose this question to new powers
Making bets on artificial intelligence, hope towers
The Amazonians peek through
Windows blocking Deep Blues
As Faces increment scars
Old burns, new urns
Collecting data chronicling our past
Often forgetting to deal with
Gender race and class, again I ask
« Ain’t I a woman? »
– Joy Buolamwini, AI, Ain’t I A Woman ?[1]
Alors qu’il y a une quinzaine d’années, les jeunes loups de la Silicon Valley ne cessaient de répéter que les développements de l’industrie de l’intelligence artificielle (IA) promettaient « d’amener un monde meilleur[2] », le discours du milieu est beaucoup plus dramatique aujourd’hui. Dans une récente émission spéciale de Radio-Canada sur l’intelligence artificielle, le chercheur montréalais Yoshua Bengio affirmait :
À partir du moment où on aurait des systèmes d’intelligence artificielle qui sont généralement beaucoup plus intelligents que nous, comment on fait pour les contrôler ? […] Il n’y a pas d’exemple dans l’histoire d’espèce qui contrôle une autre espèce qui serait plus intelligente[3].
Pourquoi les leaders d’une industrie mettent-ils autant d’efforts à nous avertir de potentielles menaces que leurs propres produits font peser sur les sociétés ? Dans une entrevue du balado Tech won’t save us, la linguiste Emily Bender propose quelques éléments d’explication à ce curieux phénomène : si les problèmes à caractère apocalyptique « sont aussi attirants », c’est parce ces leaders « préfèrent réfléchir à un « méchant » imaginaire comme on en retrouve dans la science-fiction […] plutôt que de regarder leur propre rôle dans les préjudices observés aujourd’hui[4] ». On pourrait ajouter que ce type de discours vient aussi renforcer l’apparence d’inéluctabilité de ces technologies.
Le travail de critique des développements en intelligence artificielle doit donc éviter un piège majeur, celui de contribuer à l’engouement autour de l’IA en lui attribuant des capacités qu’elle n’a pas réellement. Les discours critiques évoquant les risques d’une domination totale d’un technocapitalisme d’une grande efficience sur des individus qui ont perdu toute agentivité risquent fort d’entretenir à leur manière ce mythe de l’IA surpuissante, en plus de négliger les effets tangibles des systèmes actuellement déployés sur des populations déjà marginalisées.
Dans cet article, je soutiens au contraire que la critique de l’IA doit plutôt mettre en lumière la médiocrité de cette dernière. Le terme peut sembler fort, il est vrai qu’il existe plusieurs types d’IA, et clairement, certaines innovations s’avèrent étonnamment efficaces pour répondre à des objectifs circonscrits, comme le fait l’informatique depuis plusieurs décennies. Cependant, en dernière analyse, les luttes qui nous attendent se situent dans le prolongement de celles qui nous occupent déjà depuis longtemps, soit une résistance au capitalisme, à l’hétéropatriarcat, au racisme et au colonialisme.
« l’IA n’est pas artificielle et elle n’est pas intelligente [5] »
Il n’y a pas d’intelligence dans l’intelligence artificielle. De manière générale, on fait plutôt face à des développements informatiques qui ont permis à des algorithmes de repérer des occurrences dans d’énormes masses de données et de faire des prédictions sur cette base. Pour décrire les modèles de langage comme ChatGPT, Emily Bender a popularisé l’expression de « perroquet stochastique » (stochastic parrot [6]). Le terme « stochastique» fait référence à ce qui est généré à partir de variations aléatoires; autrement dit, ChatGPT est un baratineur. Des féministes l’ont aussi comparé à ces hommes qui parlent avec une grande assurance de sujets qu’ils ne maitrisent à peu près pas. Cela ne veut pas dire, par ailleurs, que ChatGPT n’a aucune utilité : par exemple, il est possible de synthétiser des textes ou de produire des tableaux à partir de bases de données. Il est néanmoins judicieux d’éviter d’exagérer ses capacités.
Il faut toujours garder à l’esprit tout ce qu’une intelligence dite « artificielle » vient puiser – piller, en termes clairs – et ce, tant au sein de nos sociétés que dans l’environnement. Les documents publiés dans le cadre de la poursuite du New York Times contre ChatGPT montrent que certains passages sont pratiquement du « copier-coller » d’articles publiés par le journal. ChatGPT repose également sur le travail d’employé·es du Kenya qui ont dû tracer la ligne entre le contenu acceptable et les propos haineux et violents, au prix de leur santé mentale et pour un salaire de 2 $ l’heure. Le magazine Time rapporte que cette tâche a causé un nombre de traumas si important au sein de la force de travail que la firme sous-traitante Sama a mis fin au contrat avec OpenAI huit mois plus tôt que prévu[7]. Ce genre de « nettoyage des données » est nécessaire pour plusieurs systèmes en vogue aujourd’hui. Quant aux impacts environnementaux, on a déjà des chiffres éloquents : l’IA générative a fait bondir la consommation d’eau chez Microsoft, propriétaire d’OpenAI qui a développé ChatGPT, de 34 % entre 2021 et 2022[8].
En dépit de tous ces effets négatifs et malgré des investissements considérables, l’IA demeure souvent médiocre. Les exemples abondent. Après des années, voire des décennies, d’annonces de l’arrivée imminente des voitures autonomes pour le public, celles-ci sont toujours « en route vers nulle part », selon Christian Wolmar, journaliste britannique spécialisé dans les enjeux de transport : « Les entreprises des technos ont constamment sous-estimé la difficulté à égaler, sans parler d’améliorer, les aptitudes de conduite des humains[9] ».
Poursuivons avec d’autres exemples, d’abord concernant la désinformation par les fameux hypertrucages (deepfakes). On présente souvent le risque d’une guerre qui serait déclenchée par une fausse déclaration de la part de Vladimir Poutine ou de Joe Biden, mais la personne attentive remarquera qu’aucun article portant ces avertissements nefournit d’exemple tangible où un tel trucage a produit un effet politique significatif sur une société. Plus largement, la désinformation en ligne a plutôt tendance à renforcer les opinions de personnes déjà sensibles au message politique véhiculé; autrement dit, celles et ceux qui y adhèrent veulent souvent déjà y croire. Pour le reste, les hypertrucages et les fausses nouvelles ont surtout comme effet de généraliser le doute et la méfiance à l’égard de ce qui nous est présenté, ce qui est à l’opposé des capacités qu’on attribue à ces procédés, à savoir faire croire à son authenticité[10].
Qu’en est-il des algorithmes des médias sociaux ? La recherche sur les fameuses « chambres d’écho » dans lesquelles les internautes risqueraient d’être « coincé·es » est loin d’être concluante. Le journaliste scientifique Jean-François Cliche présentait récemment des recherches montrant que « non seulement la plupart des gens sont exposés à toutes sortes de vues, mais ils s’engagent aussi sciemment dans des échanges avec des personnes aux convictions opposées[11] ». Les algorithmes des médias sociaux ne sont pas programmés et calibrés pour nous offrir ce qui correspond à nos intérêts et croyances, mais plutôt pour présenter du contenu qui nous garde sur le site afin d’accumuler des données à notre sujet et nous offrir de la publicité ciblée, ce qui n’est pas la même chose. À la limite, on pourrait comparer le scrolling, le défilement du contenu d’un écran, des années 2020 au zapping des années 1990 : on se demande, une heure plus tard, pourquoi on a perdu un tel temps à regarder du contenu aussi insignifiant…
Terminons avec le cas de la reconnaissance faciale. Il est loin d’être clair que la vidéosurveillance assistée par les algorithmes est si efficace. Entre 2017 et 2021, en prévision des Jeux olympiques de Paris, la Société nationale des chemins de fer français (SNCF) a testé 19 logiciels de vidéosurveillance algorithmique : seuls 9 ont eu une performance supérieure à 50 %[12]. En 2018, il a été divulgué que le système de reconnaissance faciale utilisé par la Metropolitan Police de Londres avait produit 98 % de faux positifs : seules 2 alertes sur 104 étaient correctes[13]. Israël est un leader des technologies de surveillance, y compris celles de reconnaissance faciale, mais cela n’a aucunement été utile pour prévenir les attaques du Hamas le 7 octobre 2023.
« L’IA est basée sur les données, et les données sont un reflet de notre histoire[14] »
À la lecture de ces exemples, on sera peut-être tenté de répondre : « Bien sûr, l’IA fait des erreurs, mais c’est parce que nous sommes seulement aux débuts de son développement ! » Mais en disant cela, ne sommes-nous pas en train de reprendre les arguments de vente de l’industrie ? Pour paraphraser le philosophe Hubert Dreyfus qui critiquait déjà les prétentions des chercheurs en intelligence artificielle dans les années 1970, ce n’est pas parce qu’on a atteint le sommet de la tour Eiffel qu’on est plus près d’atteindre la Lune…
Certes, l’IA actuelle permet des prouesses étonnantes et annonce plusieurs changements dans nos vies, notamment dans divers secteurs du travail. Mais, comme le dit Hubert Guillaud, « l’IA vise à accélérer la prise de décision bien plus qu’à l’améliorer[15] ». Il s’agit souvent de faire des gains de productivité à l’aide de logiciels qui simulent ou surveillent l’activité humaine avec une efficacité variable, faisant ainsi pression sur la force de travail. Ces bouleversements sont plus terre-à-terre que les menaces existentielles du style de La Matrice[16], mais ils font pourtant partie de ceux qui doivent réellement nous préoccuper. Même une IA aux capacités restreintes peut causer des dégâts considérables; on rejoint ici les préoccupations d’André Gorz pour qui les innovations technologiques doivent être développées dans une optique d’allègement du travail et d’augmentation de l’autonomie.
Cela étant, la soi-disant intelligence artificielle comporte des limites majeures dont rien n’indique qu’elles pourront un jour être dépassées. D’abord, les accomplissements issus des réseaux neuronaux et de l’apprentissage profond, contrairement à ce que ces termes laissent entendre, ne signifient pas que ces systèmes possèdent les capacités de saisir le sens des créations humaines. L’IA ne comprend pas ce qu’elle voit et ne fait pas preuve de créativité : elle fournit des réponses et des prédictions de manière probabiliste, sur la base des données qui lui ont été fournies. En dernière analyse, l’IA contemporaine soulève une question épistémologique : qu’est-ce que les données nous concernant, si vastes et intrusives sont-elles, saisissent véritablement de ce que nous sommes ? Jusqu’à quel point peut-on traduire les émotions, aspirations, craintes et espoirs d’un être humain en données chiffrées ou en code informatique ?
Il y a une autre limite structurelle à l’IA actuelle : puisque les générateurs de langage ou d’images et les algorithmes d’aide à la prise de décision s’appuient inévitablement sur des données du passé, cela leur donne un biais, un angle, éminemment conservateur. Ils tendent à reproduire les iniquités, stéréotypes, dominations et oppressions déjà présents dans nos sociétés, en leur donnant un vernis « neutre » parce que « mathématique ».
Ici aussi, les exemples sont nombreux. La chercheuse et militante Joy Buolamwini a bien démontré que plusieurs logiciels de reconnaissance faciale sont très inefficaces pour identifier ou même simplement repérer les visages des personnes noires[17]. Les six cas d’arrestations erronées basées sur la reconnaissance faciale répertoriés par l’American Civil Liberties Union impliquent tous des personnes noires[18].
Les logiciels de prédiction de la criminalité posent le même genre de problèmes. Aux États-Unis, ces systèmes de décision automatisés peuvent assister la police en indiquant où patrouiller sur la base de données passées, ou encore peuvent aider des juges à évaluer les risques de récidive afin de déterminer la caution ou les conditions de probation d’individus.
Or, sachant que les systèmes judiciaires et policiers occidentaux sont fortement imprégnés de racisme et de classisme systémiques – certains quartiers étant sur-surveillés par rapport à leur taux de criminalité réel ou certains groupes condamnés étant l’objet de peines et de conditions plus sévères en raison de préjugés du système judiciaire –, les logiciels s’appuyant sur de telles données tendent à reproduire ces inégalités et injustices[19].
Il en est de même lorsque des compagnies de crédit ou d’assurance assignent un classement aux individus pour déterminer leur solvabilité ou leur niveau de risque : une personne avec un dossier sans faille peut voir celui-ci dénaturé par le recours à des probabilités basées sur les dossiers de personnes aux caractéristiques sociales similaires. C’est aussi le cas pour les admissions universitaires ou collégiales, pour l’attribution d’un logement social, pour l’embauche et les évaluations au travail[20]… Bref, on risque de renforcer des formes automatisées de ségrégation économique, genrée ou raciale effectuées par des systèmes qualifiés d’intelligents.
« L’IA étroite se résume à des mathématiques[21] »
Le mythe d’une IA surpuissante, redoutablement efficace, incontrôlable et menaçante est tenace. Du Frankenstein de Mary Shelley aux récits glaçants de la série Black Mirror, en passant par 2001 : l’odyssée de l’espace et les films Terminator, on constate une propension récurrente à fantasmer des machines qui dépassent, voire asservissent, l’être humain.
Ce mythe n’est pas seulement entretenu par des œuvres de fiction. Il est frappant de constater aujourd’hui des points de convergence entre les avertissements lancés par les gourous de l’univers des technos et certains discours critiques de l’IA, notamment les craintes à l’égard d’une domination totale d’une forme technologique sur les vies humaines. Alors que le chercheur Yoshua Bengio s’inquiète d’une IA qui aurait de tels désirs d’autopréservation qu’on ne pourrait plus la débrancher – « Si elle raisonne un peu, elle va se rendre compte qu’un humain pourrait effectivement la débrancher. Que fera-t-elle ? Elle pourrait se dupliquer sur d’autres machines[22] » –, le philosophe Eric Martin entrevoit « notre enfermement aliénant dans le monde forclos du jugement-machine et du capitalisme automatisé, un “monde sans humains” où nous n’aurons pas disparu, mais serons devenus les objets de machines-sujets qui penseront à notre place[23] ». Pour son collègue Maxime Ouellet, « la capacité de la praxis sociale d’instituer des normes […] se trouve anéantie » par les algorithmes et les big data, « [en] modelant la régulation sociale sur l’anticipation de l’action des sujets[24] ».
Ces perspectives critiques posent plusieurs problèmes. D’abord, en surestimant les capacités de l’IA, on entretient le discours actuel de légitimation de l’industrie. Ensuite, les inquiétudes concernant un « futur plus ou moins proche » éveillent des fantasmes dystopiques enivrants, mais nous amènent à négliger les problèmes moins glamour que l’IA pose dès maintenant : par exemple, à l’heure actuelle les hypertrucages servent davantage à dénuder des femmes sans leur consentement qu’à perturber des campagnes électorales. Troisièmement, en opposant l’IA – ou les robots ou les machines – à l’Humanité avec un grand H, on tend à laisser de côté les effets négatifs plus prononcés de ces technologies sur les groupes de la population qui sont déjà davantage opprimés, exploités et marginalisés. Enfin, en postulant que ce développement technologique amène notre société dans une ère totalement inédite, on tend à sous-estimer la capacité de l’IA à reconduire sous un nouveau visage des formes de domination anciennes et connues.
Ce n’est d’ailleurs pas une coïncidence si les critiques que j’ai amenées dans cet article sont issues en grande majorité du travail de femmes racisées telles que Joy Buolamwini, Timnit Gebru, Safiya Noble et Meredith Broussard[25]. Or, certaines analyses nous invitent plutôt à entrevoir les perspectives critiques féministes et antiracistes de l’IA comme une simple extension de la sphère de l’éthique libérale, qui chercherait essentiellement à améliorer ces systèmes. En d’autres termes, ces critiques ne seraient pas porteuses de radicalité. Par exemple, Eric Martin écrit :
Dans la nouvelle éthique sans politique contemporaine, […] les seules questions autorisées ne concernent pas le caractère désirable du développement des robots, mais portent sur la manière de les programmer afin qu’ils ne soient pas sexistes ou racistes. On s’attaquera ainsi aux problèmes par le petit bout de la lorgnette, ce qui évitera de poser d’importantes questions sur le plan macrosociologique, à savoir par exemple que le développement du capitalisme détruit aussi bien les sociétés que la nature. Il y a donc, dit Castoriadis, « abandon du décisif au profit du trivial », et parler de ce dernier à profusion servira commodément d’écran médiatico-spectaculaire pour faire oublier la totale soumission sur le plan du premier[26].
Je partage les critiques d’Eric Martin selon lesquelles l’éthique libérale sert effectivement de légitimation aux développements de l’industrie, particulièrement à Montréal où l’éthique est devenue un élément central de l’image de marque de l’IA locale. Cependant, il m’apparait curieux de considérer que la déconstruction des systèmes d’oppression patriarcale et raciale serait « triviale » alors que ceux-ci concernent la grande majorité de la population de la planète.
Par ailleurs, il est erroné de prétendre que la critique féministe et antiraciste de l’IA se contente d’accompagner l’expansion du capitalisme en lui donnant un visage diversitaire ou woke, comme le veut la terminologie réactionnaire de notre époque. Observons par exemple le travail militant de l’Algorithmic Justice League (AJL) fondée par Buolamwini. L’organisation a pour objectif de sensibiliser la population et les élu·es aux biais et autres méfaits que peut amener l’IA. Leur site Web présente en détail leurs perspectives de lutte. On y explique par exemple que :
la justice requiert qu’on empêche l’IA d’être utilisée par les personnes au pouvoir pour augmenter leur niveau absolu de contrôle, particulièrement s’il s’agit d’automatiser des pratiques d’injustice bien ancrées historiquement, telles que le profilage racial par les forces policières, les biais sexistes à l’embauche et la sur-surveillance de communautés immigrantes. La justice implique de protéger les personnes ciblées par ces systèmes[27].
On y trouve également une critique de l’éthique en intelligence artificielle :
L’utilisation de l’éthique n’est pas en soi problématique, mais a mené à la prolifération de « principes en IA » avec peu de moyens pour les appliquer en pratique. […] De notre point de vue, il s’agit d’une approche limitée, parce qu’elle ne crée pas d’obligations ou n’interdit pas certains usages de l’IA. […] Si nous nous soucions uniquement de faire des améliorations aux jeux de données et aux processus informatiques, nous risquons de créer des systèmes techniquement plus précis, mais également plus susceptibles d’être utilisés pour de la surveillance massive et d’accentuer des pratiques policières discriminatoires[28].
Ainsi, on voit qu’une critique féministe et antiraciste peut très bien s’inscrire dans une perspective abolitionniste face à certains développements technologiques et nourrir une dénonciation radicale du capitalisme.
Surtout, ce genre d’ancrage permet de mettre en lumière que ces développements techniques s’inscrivent dans l’histoire plus générale de la science, et de la manière dont une science médiocre a pu s’articuler à des visées de domination et d’exploitation. Comme le dit Cory Doctorow, « le racisme scientifique est parmi nous depuis des siècles[29] ». Au XIXe siècle, la phrénologie prétendait pouvoir identifier le caractère d’une personne, et notamment sa propension à la criminalité, à partir de la forme de son crâne. Au tournant du XXe siècle, des mathématiciens de renom ont participé à la fondation des statistiques telles qu’on les connait parce qu’elles permettaient d’escamoter leurs conclusions eugénistes derrière un paravent prétendument objectif[30]. Aujourd’hui, des chercheurs publient des articles dans des revues scientifiques prestigieuses dans lesquelles ils affirment que des systèmes d’intelligence artificielle leur permettent d’identifier l’orientation sexuelle ou les affiliations politiques d’un individu à partir de simples photos du visage[31].
Si la science et la technique médiocres ont fréquemment été des instruments de domination et d’exploitation, cette perspective historique permet aussi de nourrir l’espoir : la mauvaise science et la mauvaise technique peuvent être contestées et rejetées. Au-delà de la technologie elle-même, le problème est ultimement politique : ce dont il est question, c’est du pouvoir qui mobilise l’IA, du pouvoir que l’IA permet de développer sur les populations et du pouvoir qu’il nous faut construire pour se l’approprier ou l’abolir.
Par Philippe de Grosbois, professeur en sociologie au Collège Ahuntsic
NOTES
- Joy Buolamwini, AI, Ain’t I A Woman ?, YouTube, 28 juin 2018. Ain’t I a Woman? est un discours prononcé par la féministe afro-américaine Sojourner Truth en 1851. Traduction littérale du poème par la rédaction :
Aujourd’hui, nous posons cette question à de nouvelles puissances
Nous parions sur l’intelligence artificielle, tours d’espoir.
Les Amazoniens jettent un coup d’œil à travers
les fenêtres (Windows) bloquant les bleus profonds (Deep Blues)
alors que les visages augmentent (increment) les cicatrices.
De vieilles brûlures, de nouvelles urnes
Collecte de données retraçant notre passé
Oubliant souvent de traiter du genre, de la race et de la classe, je demande à nouveau
« Ne suis-je pas une femme ? » ↑ - « Make the world a better place » : c’est une formule répétée comme un mantra et ridiculisée par la série humoristique Silicon Valley. ↑
- « Émission spéciale : L’intelligence artificielle décodée », Radio-Canada Info, 7 décembre 2023, 89e et 90e minutes. ↑
- « ChatGPT is not intelligent, Emily M. Bender », Tech Won’t Save Us, 13 avril 2023, 51e minute. Ma traduction. ↑
- Cory Doctorow, « The AI hype bubble is the new crypto hype bubble », Pluralistic, 9 mars 2023. Ma traduction. ↑
- Elizabeth Weil, « You are not a parrot and a chatbot is not a human. And a linguist named Emily Bender is very worried what will happen when we forget this », New York Magazine, 1er mars 2023. ↑
- Billy Perrigo, « OpenAI used kenyan workers on less than $2 per hour to make chatGPT less toxic », Time, 18 janvier 2023. ↑
- Nastasia Michaels, « 6,4 milliards de litres pour Microsoft : l’IA générative a-t-elle fait exploser la consommation d’eau des géants de la tech ? », Geo, 12 septembre 2023. ↑
- Christian Wolmar, « Driverless cars were the future but now the truth is out : they’re on the road to nowhere », The Guardian, 6 décembre 2023. Ma traduction. ↑
- J’ai développé davantage ces idées dans le livre La collision des récits. Le journalisme face à la désinformation, Montréal, Écosociété, 2022. ↑
- Jean-François Cliche, « Avons-nous tout faux sur les bulles Facebook? », Québec Science, 12 janvier 2023. Voir aussi Laurent Cordonier et Aurélien Brest, « Comment les Français choisissent-ils leurs médias? », The Conversation, 22 mai 2023. ↑
- Jean-Marc Manach, « 50 % des algorithmes de vidéosurveillance testés par la SNCF jugés “insatisfaisants” », Next, 4 janvier 2024. ↑
- Jon Sharman, « Metropolitan Police’s facial recognition technology 98 % inaccurate, figures show », The Independent, 13 mai 2018. ↑
- Phrase de Joy Buolamwini, dans le documentaire de Shalini Kantayya, Coded Bias, États-Unis, 7th Empire Media, 2020, 6e minute. ↑
- Hubert Guillaud, « L’IA vise à accélérer la prise de décision, bien plus qu’à l’améliorer! », InternetActu, 6 janvier 2022. ↑
- NDLR. Film de science-fiction australo-américain sorti en 1999 qui dépeint un futur dans lequel la plupart des humains perçoivent la réalité à travers une simulation virtuelle, étant connectés à la « Matrice », créée par des machines douées d’intelligence afin de les asservir. ↑
- Voir le documentaire Coded Bias, op. cit. ↑
- « Meet Porcha Woodruff, Detroit woman jailed while 8 months pregnant after false AI facial recognition », Democracy Now!, 9 août 2023. ↑
- Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, « Machine bias », ProPublica, 23 mai 2016. Voir aussi Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023, p. 208-226. ↑
- On trouvera plusieurs exemples documentés de ces phénomènes dans le livre de Cathy O’Neil, Weapons of Math Destruction, New York, Crown, 2016. ↑
- Phrase de Meredith Broussard dans Coded Bias, op. cit. ↑
- Philippe Mercure, « Convaincs-moi… que l’intelligence artificielle menace l’humanité », La Presse, 12 septembre 2023. ↑
- Eric Martin, « L’éthique de l’intelligence artificielle, ou la misère de la philosophie 2.0 à l’ère de la quatrième révolution industrielle », Cahiers Société, n° 3, 2021, p. 216. ↑
- Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016, p. 225-226. ↑
- Voir notamment Joy Buolamwini, Unmasking AI, New York, Random House, 2023 ; Safiya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York, New York University Press, 2018 ; Meredith Broussard, Artificial Unintelligence, MIT Press, 2019. Pour un portrait de plusieurs de ces chercheuses, voir Lorena O’Neil, « These women tried to warn us about IA », RollingStone, 12 août 2023. ↑
- Eric Martin, op. cit., p. 205. Je souligne. ↑
- The Algorithmic Justice League, Learn more. Ma traduction. ↑
- Ibid. Ma traduction. ↑
- Cory Doctorow, « Machine learning is a honeypot for phrenologists », Pluralistic, 15 janvier 2021. Ma traduction. ↑
- Voir Aubrey Clayton, « How eugenics shaped statistics », Nautilus, 27 octobre 2020. ↑
- Voir Catherine Stinson, « The dark past of algorithms that associate appearance and criminality », Scientific American, vol. 109, n° 1, 2021, et Cory Doctorow, « Machine learning… », op. cit. ↑