Pour plusieurs, y compris pour les enseignantes et les enseignants, il n’y a pas longtemps, l’intelligence artificielle (IA) était synonyme de machines ou de robots déréglés qui menacent l’humanité dans les films de science-fiction tels La Matrice ou Terminator. Il n’est donc pas étonnant que le lancement du robot conversationnel ChatGPT à la fin de la session de l’automne 2022 ait eu l’effet d’une bombe dans le milieu de l’enseignement supérieur. Certaines et certains y voient une innovation prometteuse alors que d’autres soulèvent des inquiétudes, notamment sur la facilité accrue de plagier ou de tricher. Si ChatGPT est l’application d’intelligence artificielle générative la plus publicisée, elle n’est toutefois pas la seule, loin de là. Depuis quelques années, plusieurs établissements d’enseignement ont décidé de recourir à des systèmes d’intelligence artificielle (SIA) aux fonctions diverses. Bien que l’IA soit intégrée à une variété d’outils présents dans nos habitudes quotidiennes depuis un certain temps déjà, il est primordial de mener une réflexion sur l’usage qu’on devrait en faire en éducation, et plus largement sur son utilité pour le mode de fonctionnement et les objectifs de notre système éducatif, ainsi que sur les limites à y imposer.
Depuis plusieurs années, la FNEEQ-CSN développe une réflexion critique sur le recours aux technologies numériques au sein du système de l’éducation. Celles-ci sont omniprésentes et souvent présentées comme une solution miracle et inévitables face aux problèmes qui affectent l’enseignement[3]. On pense notamment au développement de l’enseignement à distance[4] que la pandémie a accéléré, à l’utilisation des ordinateurs, des tablettes ou encore des controversés tableaux blancs interactifs promus par le premier ministre libéral Jean Charest. À notre avis, comme syndicalistes enseignantes et enseignants, il est fondamental de se poser, en amont, des questions sur le recours aux technologies numériques en général et à l’IA en particulier. 1) Permettent-elles de bonifier la relation pédagogique ? 2) Constituent-elles l’unique et la meilleure option disponible ? 3) Leur utilisation peut-elle être éthique et responsable ? Si oui, dans quelle(s) situation(s) ? 4) À qui profitent-elles vraiment et quels sont les véritables promoteurs de l’IA ? 5) Comment agir pour que l’IA puisse être au service du développement d’une société humaine équitable, diversifiée, inclusive, créative, résiliente, etc. ?
Consciente de l’intérêt présent pour ces technologies, la FNEEQ et son comité école et société[5] ont développé une posture « technocritique », évitant ainsi le piège de la rhétorique polarisante « technophiles » versus « technophobes », afin de pouvoir appréhender ce phénomène majeur de façon rigoureuse. En effet, même si ce dernier peut fournir des outils utiles pour certains besoins particuliers, par exemple un logiciel destiné à pallier un handicap, il fait peser des menaces sérieuses sur la profession enseignante et sur la relation pédagogique : ainsi il peut favoriser la fragmentation de la tâche, l’individualisation à outrance de l’enseignement, l’augmentation des inégalités et la surcharge de travail, liée entre autres à l’adaptation de l’enseignement. À terme, il peut produire plus de précarité et contribuer à la déshumanisation du milieu de l’éducation.
Quelques exemples de l’usage de l’IA en éducation et en enseignement supérieur au Québec
C’est lors du conseil fédéral de la FNEEQ des 4, 5 et 6 mai 2022 que le comité école et société a été mandaté pour « documenter et […] développer une réflexion critique au sujet du recours à l’intelligence artificielle en éducation et en enseignement supérieur[6] ». Dans son rapport publié en mai 2023, le comité y recense entre autres certains usages de l’IA.
L’IA en classe
Le rapport[7] présente quatre formes d’utilisation de l’IA pour ce qui est de l’enseignement et de l’apprentissage proprement dits.
- Les systèmes tutoriels intelligents (STI) : ceux-ci proposent des tutoriels par étapes et personnalisés qui emploient le traçage des données produites par les étudiantes et les étudiants pour ajuster le niveau de difficulté en fonction de leurs forces et faiblesses.
- Les robots intelligents : on a recours à ces robots notamment auprès d’élèves qui ont des troubles ou des difficultés d’apprentissage ainsi que pour des élèves qui ne peuvent être en classe à cause d’un problème de santé ou pour des enfants en situation de crise humanitaire.
- Les agents d’apprentissage : certains robots ou fonctionnalités de l’IA sont utilisés notamment comme agents virtuels à qui l’élève enseigne les concepts à apprendre. Par exemple, en Suisse, des élèves enseignent à un robot comment écrire.
- Les assistants pédagogiques d’IA : l’évaluation automatique de l’écriture (EAE) est une forme d’assistant pédagogique qui propose une correction formative ou sommative des travaux écrits. L’EAE ne fait pas l’unanimité, car elle comporte de nombreux présupposés. Par exemple, elle récompense les phrases longues, mais qui n’ont pas nécessairement de sens, et n’évalue pas la créativité d’un texte.
Sélection, orientation et aide à la réussite – Soutien et accompagnement des étudiantes et étudiants
En plus des outils de nature pédagogique, d’autres applications de l’IA concernent la sélection, l’orientation, l’aide à la réussite tout comme le soutien individuel et l’accompagnement des étudiantes et des étudiants.
Le forum virtuel de la Fédération des cégeps, Données et intelligence artificielle. L’innovation au service de la réussite, tenu le 9 mars 2022, fut l’occasion de présenter diverses applications de l’IA dans l’administration scolaire québécoise. Par exemple, les données colligées des étudiantes et des étudiants peuvent être traitées par l’IA afin de prédire leur comportement individuel ou collectif. Les responsables des dossiers des élèves peuvent s’inspirer de ces pronostics pour guider leurs interventions. À l’aide d’un progiciel de gestion intégrée (PGI), constitué de la cote R, de l’âge et du code postal, on peut même tenter de prévoir le risque de décrochage, le nombre d’échecs, les notes finales ou la durée des études !
Citons quelques exemples d’outils déjà bien implantés dans nos établissements :
- ISA (Interface de suivi académique) : l’objectif de l’outil, dédié aux professionnel·les du réseau collégial, est d’évaluer les risques d’abandon scolaire à l’aide d’algorithmes conçus à partir des données personnelles des étudiantes et des étudiants (historique et résultats scolaires, ressources consultées, etc.);
- Vigo : est un robot conversationnel qui accompagne directement des élèves du secondaire[8] durant leur parcours scolaire ; il peut communiquer directement avec les élèves, leur poser des questions sur l’évolution de leurs résultats, leur prodiguer des encouragements et des conseils, notamment sur leurs méthodes d’études;
- DALIA : l’objectif de DALIA « est de rendre disponible aux établissements d’enseignement collégial un outil d’analyse prédictive basé sur l’intelligence artificielle (IA) afin de mieux accompagner les étudiantes et étudiants dans leur réussite scolaire[9] ».
Risques et dérives potentielles de l’IA
Le comité école et société a identifié plusieurs risques et dérives potentielles du recours sans contraintes à l’intelligence artificielle.
Protection des renseignements personnels, collecte des données et biais
L’intelligence artificielle repose sur un recours aux algorithmes et sur la collecte massive de données, très souvent personnelles. C’est à partir de celles-ci que les systèmes d’intelligence artificielle « apprennent ». La question de la qualité de l’origine des données utilisées est alors fondamentale. On y réfère dans le milieu par l’expression « garbage in, garbage out » : « Si les données initiales sont erronées, les résultats le seront tout autant[10] ». Or, les SIA et leurs propriétaires offrent peu de transparence au public ou à l’État afin de pouvoir valider et contrôler les différents types de biais.
La discrimination algorithmique
Des cas répertoriés de « discrimination algorithmique[11] » sont particulièrement troublants et touchent tant les SIA de recrutement (de personnel, par exemple) et l’étiquetage (identification à l’aide de mots clés du contenu d’un document ou d’une image) que les propos diffamatoires et l’incitation à la haine. Ainsi, plusieurs cas de discrimination visant les femmes, les personnes racisées ou de la communauté LGBTQ+ ont été rapportés. En fait, les SIA reproduisent les biais et stéréotypes véhiculés par les humains. Différentes formes de profilage découlent également de l’utilisation de ces systèmes car la discrimination reproduite par les algorithmes est directement liée à la question fondamentale du pouvoir. Or l’industrie de la technologie est essentiellement sous l’emprise d’un groupe somme toute assez restreint de personnes composé d’hommes blancs fortunés.
Respect de la propriété intellectuelle
Le respect du droit d’auteur ou d’autrice constitue également un enjeu important. Les dispositions législatives actuelles sont trop laxistes et ne permettent pas de protéger adéquatement ce droit. Cela soulève la question majeure que représentent le plagiat et la tricherie. Si on transpose cette problématique au contexte scolaire, on peut considérer que l’étudiante ou l’étudiant qui utilise un robot conversationnel dans le cadre d’une évaluation n’est pas l’autrice ou l’auteur du contenu généré, qu’il s’agit d’un cas de tricherie au même titre que tous les autres cas de fraude intellectuelle, à moins que l’utilisation d’une IA ait été autorisée dans le cadre de l’évaluation. Quoi qu’il en soit, dans la mesure où l’une des missions premières de l’éducation est d’amener l’élève et l’étudiante à développer sa pensée critique, lui permettre de déléguer son travail intellectuel à un robot relève d’un non-sens. Notons par ailleurs qu’il est extrêmement difficile et fastidieux de détecter et de prouver les cas de plagiat comme cela a été souligné dans un reportage diffusé en juin dernier sur ICI Mauricie-Centre-du-Québec[12].
IA et recherche
L’une des craintes les plus importantes est que les SIA accentuent la course à la « productivité scientifique » et le risque de fraude. Le journaliste scientifique Philippe Robitaille-Grou rapporte que la production d’articles scientifiques falsifiés constitue une véritable industrie dopée par l’utilisation de plus en plus répandue de l’IA[13]. Ces usines à articles vendent des publications avec des résultats inventés ou modifiés pour quelques centaines de dollars à des chercheurs et chercheuses dont la reconnaissance scientifique et le financement dépendent du nombre de publications à leur nom.
Dans ce contexte, on peut se poser de sérieuses questions sur le « savoir » [re]produit par les SIA. Quelles sont les sources utilisées ? Quelles sont les réflexions épistémologiques ? Quels sont les cadres théoriques ? Sur la base des études consultées, les risques d’une reproduction des savoirs dominants sont gigantesques. Ajoutons à cela que, selon les informations disponibles, la moitié des sources d’une plateforme comme ChatGPT est constituée de références anglophones; seulement 5 % sont en français[14]. Une menace quant à la diversité culturelle est avérée.
Quoi faire ? Quel encadrement ?
Le Conseil fédéral de la FNEEQ a adopté une série de recommandations[15] sur l’intelligence artificielle au cœur desquelles figure la recommandation d’un moratoire, suggéré par ailleurs par plusieurs acteurs clés de cette industrie.
Des balises rigoureuses doivent impérativement être mises de l’avant afin de prévenir les dérives identifiées et anticipées.
- La réflexion sur l’IA ne se dissocie pas de la réflexion globale sur l’omniprésence des technologies en éducation et dans la vie quotidienne, et ce, dans un contexte de technocapitalisme où l’IA demeure sous l’égide d’entreprises privées à but lucratif.
- Les SIA ne devraient pas être utilisés pour remplacer des personnes dans des contextes de relation d’aide ou de relation pédagogique, afin notamment de respecter la protection des renseignements personnels et du droit à la vie privée, lorsque des enjeux éthiques sont impliqués ou lorsque les actes posés sont susceptibles d’être réservés à des membres d’un ordre professionnel, par exemple une psychologue, un travailleur social…
- Des contraintes financières ou de recrutement de personnel ne devraient pas entrer en ligne de compte dans le choix d’un SIA.
- L’IA ne devrait pas être employée pour recruter ou évaluer des membres du personnel, des élèves, des étudiantes ou des étudiants.
- Tout potentiel recours aux SIA dans les établissements d’enseignement devrait faire l’objet d’une entente locale avec les syndicats, car ces systèmes affectent profondément les conditions de travail. L’implantation des SIA devrait être sous la supervision de comités paritaires auxquels participeraient notamment des enseignantes et des enseignants.
- De plus, sur le plan individuel, l’utilisation des SIA devrait toujours être optionnelle pour le corps enseignant et pour les étudiantes et étudiants. Elle devrait aussi toujours être le fruit d’un consentement éclairé.
Compte tenu du développement chaotique actuel des SIA, nous estimons que le principe de précaution, applicable en environnement, devrait aussi être adopté en regard des technologies. Ainsi, « en cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives[16] ». Bref, il devrait appartenir à tout organisme (école, cégep, université, ministère) et promoteur qui envisagent de recourir à un SIA d’en démontrer hors de tout doute raisonnable l’innocuité avant son implantation. En ce sens, les facteurs suivants devraient être considérés :
- la protection complète et effective des renseignements personnels des utilisateurs et des utilisatrices;
- la protection complète et effective du droit d’auteur et d’autrice;
- le contrôle contre les risques de discrimination algorithmique;
- les mesures de transparence des technologies utilisées et la redevabilité et l’imputabilité des propriétaires de celles-ci;
- les mesures de contrôle démocratique de la technologie en valorisant les technologies développées par des OBNL ou les logiciels libres.
Ces facteurs pourraient aussi faire l’objet d’un encadrement national et international comme l’Europe s’apprête à le faire[17]. À titre d’outil de contrôle, on peut s’inspirer de la suggestion de l’enseignante et philosophe Andréanne Sabourin-Laflamme, selon qui les SIA devraient systématiquement et régulièrement subir des audits algorithmiques, lesquels permettent notamment « d’évaluer, avec toutes sortes de processus techniques, par exemple, la représentativité des données, et de vérifier s’il y a présence d’effets discriminatoires[18] ».
Les actions accomplies
La FNEEQ-CSN a su profiter de différents forums pour faire valoir ses positions, y compris les médias, notamment à la mi-mai 2023 lors de la tenue de la Journée sur l’intelligence artificielle organisée par le ministère de l’Enseignement supérieur. Elle a aussi participé à deux consultations, l’une organisée par le Conseil supérieur de l’éducation, en collaboration avec la Commission de l’éthique en science et technologies, et l’autre par le Conseil de l’innovation du Québec menée à l’été 2023 [19]. Le slogan Vraie intelligence, vrai enseignement choisi par la FNEEQ en concordance avec ses positions a marqué la rentrée de l’automne 2023.
La FNEEQ envisage par ailleurs la tenue, au début de l’année 2024, d’un événement public sur l’intelligence artificielle selon un point de vue syndical. Malheureusement, les conférences et ateliers donnés dans les différents établissements adoptent généralement une approche jovialiste de l’IA et donnent peu ou pas de place aux points de vue davantage technocritiques. Il nous semble fondamental de diffuser auprès des enseignantes et des enseignants et de la population en général une information complémentaire qui aborde les enjeux du travail.
La réflexion et l’action doivent être élargies à l’ensemble du monde du travail afin de nouer des alliances. À cet effet, la FNEEQ a exposé ses travaux dans le cadre de la 12e Conférence sur l’enseignement supérieur de l’Internationale de l’éducation tenue à Mexico en octobre 2023. Nous travaillons aussi au sein de la CSN afin de développer un discours syndical intersectoriel sur cet enjeu majeur. Plusieurs professions risquent d’être affectées par le recours à l’IA, notamment dans la santé, comme le révélait récemment une étude de l’Institut de recherche et d’informations socioéconomiques (IRIS)[20].
Les recommandations du Conseil de l’innovation du Québec et du Conseil supérieur de l’éducation devraient être rendues publiques au début de l’année 2024. Espérons que ces organismes prendront en compte les craintes légitimes et les mises en garde bien documentées et exprimées par la société civile et par les organisations syndicales.
L’action de l’État sera aussi nécessaire que fondamentale. L’univers technologique, et l’IA en particulier, est accaparé et contrôlé par de grandes entreprises, notamment les GAFAM[21]. Nous connaissons également les impacts écologiques désastreux de ces technologies[22].
Le gouvernement canadien a déposé en 2022 un projet de loi visant à encadrer « la conception, le développement et le déploiement responsables des systèmes d’IA qui ont une incidence sur la vie des Canadiens[23] ». Or, plusieurs organisations et spécialistes jugent « que les dispositions actuelles du projet de loi ne protègent pas les droits et les libertés des citoyennes et citoyens canadiens contre les risques liés à l’évolution fulgurante de l’intelligence artificielle[24] ».
Devant la stagnation de l’étude de son projet de loi, le ministre François-Philippe Champagne a mis en place un Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés[25]. Or, bon nombre d’entreprises rejettent l’idée de se conformer à un cadre réglementaire sous peine de voir le Canada perdre un avantage dans la course au développement de l’IA[26]. Bref, pour plusieurs de ces entreprises, la loi de la jungle devrait prévaloir en IA comme dans bien d’autres domaines tels que la santé, l’éducation…
Plus récemment, le conflit au sein de l’administration d’OpenAI, l’instigateur de ChatGPT, à propos du congédiement, puis de la réintégration de son PDG Sam Altman semble confirmer la victoire du camp de l’« innovation » face à celui de la précaution, et celle de la mainmise des grandes entreprises, comme Microsoft, sur le développement et le contrôle du produit[27]. D’ailleurs, Microsoft, au moment même où elle se lançait dans l’intégration de l’IA générative dans ses produits, dont la suite Office, licenciait son équipe responsable des enjeux d’éthique[28].
En conclusion, jusqu’à tout récemment, le développement des technologies pouvait faire craindre pour les emplois techniques et à qualifications moins élevées, notamment dans le secteur industriel (la robotisation). Or, le développement de l’IA menace maintenant plus de 300 millions d’emplois[29]. Les emplois de bureau et professionnels, surtout occupés par des femmes, seraient particulièrement menacés[30]. En 2021, la Commission de l’éthique en science et technologie affirmait que « la possibilité que le déploiement de l’IA dans le monde du travail contribue à l’augmentation des inégalités socioéconomiques et à la précarité économique des individus les plus défavorisés est bien réelle et doit être prise au sérieux par les décideurs publics[31] ». L’impact phénoménal de cette nouvelle technologie, que l’on doit analyser dans le contexte socioéconomique-écologique actuel, doit nous pousser comme organisation syndicale à sensibiliser nos membres sur ses risques et à militer pour un encadrement substantiel et évolutif de cette technologie par l’État et par les travailleuses et travailleurs. C’est un rappel que la technologie doit d’abord et avant tout servir l’être humain et non l’inverse.
Par Caroline Quesnel, présidente, et Benoît Lacoursière, secrétaire général et trésorier de la Fédération nationale des enseignantes et des enseignants du Québec (FNEEQ-CSN)[1]
- L’autrice et l’auteur tiennent à remercier les membres du comité école et société de la FNEEQ qui ont participé d’une manière ou d’une autre à la rédaction de ce texte : Ann Comtois, Stéphane Daniau, Sylvain Larose, Ricardo Penafiel et Isabelle Pontbriand. Nous remercions aussi Joanie Bolduc, employée de bureau de la FNEEQ pour la révision du texte.La FNEEQ est affiliée à la Confédération des syndicats nationaux (CSN) et représente 35 000 enseignantes et enseignants du primaire à l’université. Elle représente notamment environ 85 % du corps enseignant des cégeps et 80 % des chargé es de cours des universités, ce qui en fait l’organisation syndicale la plus représentative de l’enseignement supérieur. Ce texte se base principalement sur les travaux du comité école et société de la FNEEQ, particulièrement son rapport Intelligence artificielle en éducation. De la mission à la démission sociale : replaçons l’humain au cœur de l’enseignement, 2023.↑
- Comité école et société, Augmentation du nombre d’étudiantes et d’étudiants en situation de handicap, diversification des profils étudiants et impacts sur la tâche enseignante, Montréal, FNEEQ, 2022.↑
- Comité école et société, L’enseignement à distance : enjeux pédagogiques, syndicaux et sociétaux, Montréal, FNEEQ, 2019. ↑
- Composé de cinq militantes et militants élus, le comité a pour mandat principal de fournir des analyses qui enrichissent la réflexion des membres et des instances sur les problématiques actuelles ou nouvelles en éducation. ↑
- FNEEQ-CSN, Conseil fédéral – N° 3. Réunion ordinaire des 4, 5 et 6 mai 2022. Recommandations adoptées, p. 5. ↑
- Comité école et société, 2023, op. cit., partie 3. ↑
- La journaliste Patricia Rainville indiquait en 2019 que 20 000 élèves utilisaient Vigo et qu’on visait l’ensemble des élèves du réseau public, soit 800 000 élèves, en 2023. Patricia Rainville, « Vigo, l’assistant scolaire robotisé d’Optania, accompagne 20 000 élèves au Québec », Le Soleil, 13 septembre 2019.↑
- Regroupement des cégeps de Montréal, L’intelligence artificielle au bénéfice de la réussite scolaire, présentation au Forum de la Fédération des cégeps du Québec, 9 mars 2022. ↑
- Julie-Michèle Morin, « Qui a peur des algorithmes ? Regards (acérés) sur l’intelligence artificielle », Liberté, n° 329, hiver 2021, p. 43. ↑
- Notamment de sexisme, de racisme ou d’hétérosexisme. ↑
- Radio-Canada, « ChatGPT inquiète le milieu de l’enseignement à Trois-Rivières », Ici Mauricie-Centre-du-Québec, 1er juin 2023. ↑
- Philippe Robitaille-Grou, « Une industrie de fraudes scientifiques de masse », La Presse, 8 janvier 2023. ↑
- France-Culture, « ChatGPT, l’école doit-elle revoir sa copie ? », Être et savoir, baladodiffusion, Radio France, 13 février 2023. ↑
- FNEEQ-CSN, Conseil fédéral – N° 6. Réunion des 31 mai, 1er et 2 juin 2023. Recommandation adoptée. ↑
- ONU, Déclaration de Rio sur l’environnement et le développement, Rio de Janeiro, juin 1992. ↑
- Agence France-Presse, « L’Union européenne va pour la première fois encadrer l’intelligence artificielle », Le Devoir, 8 décembre 2023. ↑
- Chloé-Anne Touma, « Grand-messe de l’IA en enseignement supérieur : de belles paroles, mais des actions qui tardent à venir », CScience, 16 mai 2023. ↑
- FNEEQ-CSN, Avis de la FNEEQ-CSN transmis au Conseil supérieur de l’éducation dans le cadre de sa consultation sur l’utilisation des systèmes d’intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques, 13 juin 2023.↑
- Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec, Montréal, IRIS, novembre 2023. ↑
- NDLR. Acronyme désignant les géants du Web que sont Google, Apple, Facebook (Meta), Amazon et Microsoft. ↑
- Karim Benessaieh, « Un impact environnemental monstre », La Presse, 3 juin 2023. ↑
- Gouvernement du Canada, Loi sur l’intelligence artificielle et les données. ↑
- La Presse canadienne, « Le projet de loi sur l’IA jugé inadéquat par des spécialistes », Radio-Canada, 26 septembre 2023. ↑
- Alain McKenna, « Au tour du Canada d’adopter un code de conduite volontaire pour l’IA », Le Devoir, 27 septembre 2023. ↑
- Radio-Canada, « L’industrie divisée quant au “code de conduite volontaire” d’Ottawa pour l’IA », 1er octobre 2023. ↑
- Kevin Roose, « l’IA appartient désormais aux capitalistes », La Presse+, 24 novembre 2023. ↑
- Bruno Guglielminetti, « Microsoft licencie les gens responsables de l’éthique de l’IA », Mon Carnet de l’actualité numérique, 14 mars 2023. ↑
- Agence QMI, « Jusqu’à 300 millions d’emplois menacés par l’intelligence artificielle », Le Journal de Québec, 28 mars 2023. ↑
- Claire Cain Miller et Courtney Cox, « Les emplois de bureau menacés par l’intelligence artificielle », La Presse, 30 août 2023. ↑
- Commission de l’éthique en science et technologie (CEST), Les effets de l’intelligence artificielle sur le monde du travail et la justice sociale : automatisation, précarité et inégalités, Québec, Gouvernement du Québec, 17 juin 2021, p. 53. ↑