AccueilNuméros des NCSNo. 31 - Hiver 2024Intelligence artificielle 101

Intelligence artificielle 101

DOSSIER - Nouveaux Cahiers du Socialisme - No.31 - Hiver 2024

Qu’est-ce que l’intelligence artificielle ?

« L’intelligence artificielle (IA, ou AI pour Artificial Intelligence) consiste à mettre en œuvre un certain nombre de techniques visant à permettre aux machines d’imiter une forme d’intelligence réelle. L’IA se retrouve implémentée dans un nombre grandissant de domaines d’application[1]. »

L’intelligence artificielle est donc un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l’intelligence humaine[2].

L’IA s’appuie notamment sur les théories des mathématiques et des sciences cognitives. Elle fait aussi appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux) et à la logique (partie des mathématiques et de la philosophie). Elle utilise des méthodes de résolution de problèmes à forte complexité logique ou algorithmique en s’appuyant entre autres sur la théorie des décisions. Par extension, l’IA comprend, dans le langage courant, les dispositifs qui imitent ou remplacent l’humain dans certaines mises en œuvre de ses fonctions cognitives[3].

Évolution de l’IA

L’évolution de l’intelligence artificielle peut être résumée en sept étapes principales[4] :

  • Le temps des prophètes : dans les années 1950, les pionniers de l’IA font des prédictions audacieuses sur les capacités futures des machines, mais ils surestiment largement les progrès à venir.
  • Les années sombres : dans les années 1960 et 1970, l’IA connait un ralentissement et une perte de financement, notamment à cause des limites des méthodes symboliques et des critiques de James Lighthill.
  • Le retour en grâce : dans les années 1980, l’IA bénéficie d’un regain d’intérêt et de soutien, grâce aux succès des systèmes experts, des réseaux de neurones et de la robotique.
  • Le second hiver : dans les années 1990, l’IA subit à nouveau une désillusion et une concurrence accrue d’autres disciplines informatiques, comme les bases de données ou le Web.
  • L’ère du big data : dans les années 2000, l’IA profite de l’explosion des données disponibles et de l’amélioration des capacités de calcul, ce qui lui permet de développer des applications dans de nombreux domaines, comme la reconnaissance vocale, la traduction automatique ou la recherche d’information.
  • L’avènement de l’apprentissage profond : dans les années 2010, l’IA connait une révolution avec l’émergence de l’apprentissage profond, une technique qui utilise des couches successives de neurones artificiels pour apprendre à partir de données complexes et non structurées, comme les images, les sons ou les textes.
  • L’horizon de l’intelligence artificielle générale : dans les années 2020, l’IA se confronte au défi de l’intelligence artificielle générale (IAG), c’est-à-dire à la capacité d’une machine à accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire, voire à dépasser l’intelligence humaine. Ce défi soulève des questions éthiques, sociales et philosophiques, ainsi que des incertitudes sur les impacts de l’IA sur l’humanité.

Définitions

John McCarthy, le principal pionnier de l’intelligence artificielle avec Marvin Lee Minsky, définit l’IA ainsi : « C’est la science et l’ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents. Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l’intelligence humaine, mais l’IA ne doit pas se limiter aux méthodes qui sont biologiquement observables[5] ».

L’IA est également définie par Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». On y trouve donc le caractère « artificiel » dû à l’usage des ordinateurs ou de processus électroniques élaborés et le caractère « intelligence » associé à son but d’imiter le comportement humain. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d’autres capteurs, dans la commande d’un robot dans un milieu inconnu ou hostile.

Les types d’IA

L’intelligence artificielle se décline en trois catégories principales[6] :

  • IA faible (ou IA étroite, restreinte) : ce type d’IA est conçu pour effectuer des tâches spécifiques sans posséder de conscience ou d’intelligence générale. Par exemple, l’IA faible peut être utilisée pour la reconnaissance vocale, la recherche sur Internet ou encore le jeu d’échecs. Cependant, sa capacité d’apprentissage et d’adaptation est limitée à sa programmation initiale. Elle ne peut pas comprendre ni s’adapter en dehors de son domaine de spécialisation défini.
  • IA forte (ou IA générale) : contrairement à l’IA faible, l’IA forte possède une intelligence et une conscience similaires à celles des humains. Elle est capable de résoudre des problèmes dans divers domaines sans être limitée à une seule tâche. En somme, elle reproduit l’intelligence humaine de manière beaucoup plus authentique.
  • IA superintelligente : ce type hypothétique d’IA surpasserait l’intelligence humaine, excédant les capacités humaines dans tous les domaines, de la créativité à la prise de décision. Cependant, à ce jour, ce niveau d’intelligence artificielle n’a pas encore été atteint. De nombreux experts considèrent que l’avènement de ce type d’IA est fortement improbable.

Techniquement, comment ça marche ?

En général, on peut dire que l’IA se compose de quatre éléments clés : la puissance de calcul, les mégadonnées, la prise de décision par les algorithmes et l’argent.

Aujourd’hui, les géants de l’informatique tels que Google, Microsoft, Apple, IBM et Facebook sont tous engagés dans la recherche et le développement de l’IA. Ils ont mis en place des réseaux de neurones artificiels, composés de serveurs capables de traiter des calculs complexes sur de gigantesques quantités de données à des vitesses en croissance exponentielle. Ces réseaux sont conçus pour imiter le fonctionnement du cerveau humain, et permettent à ces systèmes d’apprendre et de s’adapter avec le temps.

Les systèmes d’IA sont formés à partir de grandes quantités de données. Ils utilisent des capacités informatiques pour analyser ces données et, sur cette base, prennent des décisions. C’est cette capacité de prise de décision qui distingue l’IA de nombreuses autres technologies comme les systèmes experts, par exemple.

Ainsi, tous les bots informatiques, les vidéos falsifiées et les images manipulées ne sont pas nécessairement le produit de l’IA. Ce qui compte, c’est si la technologie est capable de prendre des décisions. Un chatbot basé sur des règles, par exemple, renvoie des réponses prédéterminées en fonction de certaines conditions, comme l’utilisation d’un mot-clé. Il n’est pas nécessaire d’utiliser l’IA pour cela.

En revanche, un agent conversationnel utilise le traitement automatique du langage naturel (TLN), un sous-domaine de l’IA, pour extraire des informations du langage humain. Il évalue le contenu et le contexte, puis choisit une ligne de conduite, par exemple les mots à utiliser, la structure de la phrase et le ton à adopter en réponse. Contrairement à un simple chatbot basé sur des règles, un agent conversationnel doté d’IA ne renvoie pas toujours la même réponse à la même question.

Les outils basés sur l’IA comportent donc un certain degré d’incertitude ou de probabilité. Ils utilisent l’apprentissage automatique et la prise de décision algorithmique pour se rapprocher de plus en plus de la réalisation des tâches pour lesquelles ils ont été conçus. Cependant, ils le font d’une manière qui n’a pas été spécifiquement programmée. Les systèmes d’IA ont un certain degré d’autonomie, ce qui les rend beaucoup plus puissants. Cette autonomie est ce qui distingue véritablement l’IA et lui confère sa puissance.

Il existe toutefois une confusion dans le débat public entre intelligence artificielle, apprentissage automatique (machine learning) et apprentissage profond (deep learning). Pourtant, ces notions ne sont pas équivalentes, mais imbriquées. L’intelligence artificielle englobe l’apprentissage automatique, qui lui-même englobe l’apprentissage profond.

Diagramme de Venn montrant comment s’imbriquent les notions d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond[7].

Apprentissage automatique

L’apprentissage automatique consiste à permettre au modèle d’IA d’apprendre à effectuer une tâche au lieu de spécifier exactement comment il doit l’accomplir. Le modèle contient des paramètres dont les valeurs sont ajustées tout au long de l’apprentissage. La méthode de la rétropropagation du gradient est capable de détecter, pour chaque paramètre, dans quelle mesure il a contribué à une bonne réponse ou à une erreur du modèle, et peut l’ajuster en conséquence. L’apprentissage automatique nécessite un moyen d’évaluer la qualité des réponses fournies par le modèle.

Réseaux de neurones

Les réseaux de neurones artificiels sont inspirés du fonctionnement du cerveau humain : les neurones sont en général connectés à d’autres neurones en entrée et en sortie. Les neurones d’entrée, lorsqu’ils sont activés, agissent comme s’ils participaient à un vote pondéré pour déterminer si un neurone intermédiaire doit être activé et ainsi transmettre un signal vers les neurones de sortie. En pratique, pour l’équivalent artificiel, les « neurones d’entrée » ne sont que des nombres et les poids de ce « vote pondéré » sont des paramètres ajustés lors de l’apprentissage.

À part la fonction d’activation, les réseaux de neurones artificiels n’effectuent en pratique que des additions et des multiplications matricielles, ce qui fait qu’ils peuvent être accélérés par l’utilisation de processeurs graphiques. En théorie, un réseau de neurones peut apprendre n’importe quelle fonction.

Apprentissage profond

L’apprentissage profond (deep learning en anglais) utilise de multiples couches de neurones entre les entrées et les sorties, d’où le terme « profond ». L’utilisation de processeurs graphiques pour accélérer les calculs et l’augmentation des données disponibles a contribué à la montée en popularité de l’apprentissage profond. Il est utilisé notamment en vision par ordinateur, en reconnaissance automatique de la parole et en traitement du langage naturel (ce qui inclut les grands modèles de langage).

Grands modèles de langages

Les grands modèles de langage sont des modèles de langage ayant un grand nombre de paramètres, typiquement des milliards. Ils reposent très souvent sur l’architecture « transformeur ».

Les transformeurs génératifs pré-entrainés (Generative Pretrained Transformers ou GPT en anglais) sont un type particulièrement populaire de grand modèle de langage. Leur « pré-entrainement » consiste à prédire, étant donné une partie d’un texte, le token suivant (un token étant une séquence de caractères, typiquement un mot, une partie d’un mot ou de la ponctuation). Cet entrainement à prédire ce qui va suivre, répété pour un grand nombre de textes, permet à ces modèles d’accumuler des connaissances sur le monde. Ils peuvent ensuite générer du texte semblable à celui ayant servi au pré-entrainement, en prédisant un à un les tokens suivants. En général, une autre phase d’entrainement est ensuite effectuée pour rendre le modèle plus véridique, utile et inoffensif. Cette phase d’entrainement (utilisant souvent une technique appelée RLHF) permet notamment de réduire un phénomène appelé « hallucination », où le modèle génère des informations d’apparence plausible mais fausses.

Avant d’être fourni au modèle, le texte est découpé en tokens. Ceux-ci sont convertis en vecteurs qui en encodent le sens ainsi que la position dans le texte. À l’intérieur de ces modèles se trouve une alternance de réseaux de neurones et de couches d’attention. Les couches d’attention combinent les concepts entre eux, permettant de tenir compte du contexte et de saisir des relations complexes.

Ces modèles sont souvent intégrés dans des agents conversationnels, où le texte généré est formaté pour répondre à l’utilisateur ou l’utilisatrice. Par exemple, l’agent conversationnel ChatGPT exploite les modèles GPT-3.5 et GPT-4. En 2023 font leur apparition des modèles grand public pouvant traiter simultanément différents types de données comme le texte, le son, les images et les vidéos, tel Google Gemini.

Domaines d’application[8]

L’intelligence artificielle trouve des applications variées dans différents domaines. Voici un aperçu de son utilisation en médecine, dans le domaine militaire, le renseignement policier et le droit. On aurait aussi pu donner des exemples dans les domaines de la logistique et du transport, de l’industrie, de la robotique, des arts, de la politique, etc.

  • Médecine
    • Diagnostic et détection précoce : l’IA peut analyser rapidement et précisément de grandes quantités de données médicales, facilitant ainsi le diagnostic précoce de maladies et d’affections. Elle peut détecter des modèles et des signes subtils qui échappent parfois à l’œil humain.
    • Structuration des données des patients : l’IA collecte, analyse et organise méthodiquement les données massives issues des patients et patientes, ce qui facilite leur traitement ultérieur par les professionnels de la santé.
    • Prise en charge thérapeutique : l’IA peut guider les médecins dans la prise en charge thérapeutique des patients en se basant sur des cas passés et en croisant diverses données.
  • Domaine militaire
    • Surveillance et reconnaissance : l’IA est utilisée pour surveiller et reconnaitre des cibles, des mouvements de troupes et des activités ennemies.
    • Prévention des attaques : elle peut aider à anticiper et à prévenir les attaques en analysant des données et des schémas.
    • Assistance au commandement : l’IA peut fournir des informations et des recommandations aux commandants militaires.
    • Gestion de l’approvisionnement et de la logistique : elle optimise la gestion des ressources et des approvisionnements.
    • Contrôle de drones et de robots : l’IA permet de piloter ces dispositifs de manière autonome.
  • Renseignement policier
    • Analyse de données criminelles : l’IA peut aider à analyser des données complexes pour détecter des schémas criminels, des tendances et des menaces potentielles.
    • Identification de suspects : elle peut faciliter l’identification de suspects à partir d’images de vidéosurveillance ou d’autres sources.
    • Prédiction de crimes : l’IA peut anticiper les zones à risque et les moments propices à la criminalité.
  • Droit
    • Recherche juridique : l’IA peut analyser des textes juridiques, des précédents et des décisions de justice pour aider les avocats et les juges dans leurs recherches.
    • Automatisation des tâches juridiques : elle peut automatiser des tâches telles que la rédaction de contrats, la gestion des documents et la facturation.
    • Prédiction des résultats de procès : l’IA peut évaluer les chances de succès d’un procès en fonction des éléments disponibles.

Le matériel de l’artificielle intelligence

Avec les algorithmes et les mégadonnées (big data), le matériel qui sous-tend l’intelligence artificielle est la troisième composante essentielle pour permettre des capacités et des performances exceptionnelles. Il joue un rôle central dans l’innovation moderne et façonne le paysage de l’IA.

Les principales composantes matérielles clés de l’IA sont : les unités de traitement graphique (GPU), les unités de traitement tensoriel (TPU), les unités de traitement neuronal (NPU), les processeurs centraux (CPU), la mémoire et le stockage, les réseaux (réseaux locaux, LAN, et les réseaux étendus, WAN, qui permettent la communication entre les systèmes d’IA), la connectivité (la 5G offre une connectivité rapide pour les appareils mobiles et l’Internet des objets) et le matériel spécialisé.

En somme, ces composantes matérielles travaillent ensemble pour traiter et analyser de grandes quantités de données, permettant aux systèmes d’IA d’apprendre, de s’adapter et de faire des prédictions. L’IA ne serait pas possible sans cette puissance matérielle sous-jacente.

L’exemple de Nvidia[9]

Parmi les fabricants de composantes matérielles destinées à l’IA, l’entreprise Nvidia, bien que moins connu du grand public que les géants du Web, compte parmi les principaux joueurs dans ce domaine. Elle est actuellement la deuxième entreprise en termes de capitalisation boursière de la planète dans le domaine de l’IA, devancée uniquement par Microsoft. Elle présente plusieurs avantages, dont une puissance de calcul exceptionnelle. Les unités de traitement graphique (GPU) de Nvidia sont devenues un pilier fondamental de l’IA, permettant des avancées significatives dans le domaine de l’apprentissage automatique et des réseaux de neurones.

L’argent, bien matériel de l’intelligence artificielle

Avec les algorithmes, les mégadonnées et le matériel informatique, l’argent constitue la quatrième composante de l’intelligence artificielle, essentielle à son développement et à son déploiement, capitalisme oblige.

Coûts financiers de l’IA

L’intelligence artificielle est un domaine qui engendre des coûts astronomiques[10] pour les développeurs. Une grande partie des pertes associées aux IA génératrices provient des coûts d’inférence. Pour maintenir des IA capables de fournir des réponses optimales en un temps très court, une puissance informatique considérable est requise dès les phases de test. Cela implique l’utilisation de supercalculateurs actifs en permanence. Des cartes graphiques hautement performantes, coûtant environ 30 000 dollars chacune,, sont essentielles pour ces calculs.

Les coûts augmentent aussi avec la popularité de l’outil IA. Plus une IA est connue, plus elle reçoit de requêtes, ce qui entraine des prix plus élevés pour la génération de réponses. La longueur de la requête impacte également les coûts. Des requêtes plus longues reviennent plus cher aux entreprises derrière ces IA génératrices.

Le modèle économique de l’IA est limité : Par exemple,  ChatGPT, dont l’application est gratuite pour les utilisateurs et utilisatrices, a engendré des pertes estimées à  540 millions de dollars  l’an passé. Pour compenser ces pertes,  OpenAI  propose des abonnements à  20 dollars par mois  pour accéder à des versions plus performantes de ChatGPT. Chaque requête (prompt) d’IA générative coûterait entre 0,01 $ et 0,36 $, selon les estimations. À titre d’exemple, un service qui coûte 10 $ par utilisateur et par mois, entrainerait une perte de 20­ $ par mois; certains utilisateurs coûteraient au fournisseur plus de 80 $[11].

Coûts environnementaux de l’IA

L’intelligence artificielle a un impact considérable en termes de consommation d’énergie et en ressources naturelles.

L’entrainement des modèles d’IA, notamment les réseaux neuronaux, nécessite une grande quantité de calculs effectués dans des centres de données qui consomment énormément d’électricité[12]. Par rapport à l’apprentissage chez les humains, les tâches d’entrainement sont inefficaces car les modèles d’IA doivent lire une grande quantité de données pour apprendre à les comprendre. Par exemple, le modèle linguistique BERT (Bidirectional Encoder Representations from Transformers) a utilisé 3,3 milliards de mots tirés de livres anglais et de pages Wikipédia pour comprendre la langue.

L’empreinte carbone de l’élaboration de l’IA constitue un risque majeur. Selon certaines estimations, l’entrainement d’un modèle d’IA génère autant d’émissions de carbone que cinq voitures pendant toute leur durée de vie, fabrication comprise. Les chercheurs et développeurs en IA doivent être conscients de ces coûts énergétiques croissants et chercher des moyens d’optimiser l’efficacité énergétique de leurs modèles. L’utilisation de l’IA générative peut également contribuer à la sobriété écologique en surveillant les schémas de consommation d’énergie des bâtiments et en identifiant des opportunités d’économies.

Vers un monopole des géants du Web

Les IA généralistes sont en difficulté en raison des coûts élevés. Actuellement, les IA généralistes, comme ChatGPT, sont capables de réaliser de nombreuses tâches. Une possibilité serait de développer des IA spécialisées pour des tâches spécifiques, fonctionnant localement, afin de réduire les coûts liés à l’utilisation du « cloud ».

À long terme, seules les grandes entreprises américaines telles que Google, Microsoft, Meta, Apple et Amazon pourraient gérer des IA généralistes car elles ont la capacité d’absorber les pertes financières associées à leur utilisation. Cependant, même ces géants ne pourraient pas se tourner vers une utilisation à 100 % d’IA. La recherche via l’intelligence artificielle coûte six fois plus cher qu’une recherche Google standard.

Les GAFAM explorent des solutions pour réduire ces coûts. Par exemple, des puces dédiées à l’intelligence artificielle sont en projet, ce qui pourrait réduire les dépenses tout en maintenant une certaine qualité de service. De même, des centres de calcul et de données alimentées en énergie renouvelable sont en construction, pas tant pour l’environnement que pour réduire les coûts.

Investissements en IA par pays et par entreprise

Le graphique ci-joint, basé sur les données du rapport 2023 AI Index Report[13] de l’Université de Stanford, montre les pays où les sommes les plus importantes ont été investies dans des entreprises d’IA entre 2013 et 2022. Les États-Unis arrivent largement en tête avec un montant de 248,9 milliards de dollars, suivis par la Chine (95,1 milliards de dollars) et le Royaume-Uni (18,2 milliards de dollars). À remarquer, le Canada au cinquième rang avec des investissements de 8,8 milliards de dollars sur cette période, bien que n’ayant aucune entreprise dans le top 20 des entreprises du domaine de l’IA. C’est que les investissements au Canada sont souvent le fait d’entreprises multinationales étrangères en partenariat avec des laboratoires et centres de recherche universitaires ou sans but lucratif, mais largement financés par des fonds publics.

En 2022, les investissements les plus importants dans l’IA ont été réalisés dans le domaine de la médecine et de la santé (6,1 milliards de dollars), selon le rapport.

Parmi les 20 plus grandes entreprises mondiales dans le domaine de l’intelligence artificielle, classées par capitalisation boursière[14] , on compte 19 entreprises américaines ou chinoises et une seule d’un autre pays, Israël. Ces entreprises représentent un mélange de matériel, de logiciels et de services basés sur l’IA.

Capitalisation boursière (en milliards de dollars US)[15]
Rang Entreprise Pays $ (US)
1 Microsoft États-Unis 3 040,00 $
2 NVIDIA États-Unis 1 980,00 $
3 Alphabet (Google) États-Unis 1 712,00 $
4 Meta (Facebook) États-Unis 1 246,00 $
5 Tesla États-Unis 639,00 $
6 Alibaba Group Chine 181,00 $
7 IBM États-Unis 169,00 $
8 Palantir États-Unis 54,00 $
9 Baidu Chine 40,00 $
10 Tencent Chine 39,00 $
11 Meituan Chine 37,00 $
12 JD.com Chine 34,00 $
13 Pinduoduo Chine 30,00 $
14 Xiaomi Chine 25,00 $
15 NetEase Chine 24,00 $
16 Hikvision Chine 23,00 $
17 Mobileye Israël 20,00 $
18 Dynatrace États-Unis 14,00 $
19 UiPath États-Unis 13,00 $
20 Sogou Chine 4,00 $

À remarquer : Apple ne fait pas partie du tableau bien que plusieurs experts estiment qu’Apple investit présentement d’énormes ressources en IA. Il y aurait deux explications à ce constat. L’entreprise n’est pas considérée comme un fournisseur de services d’IA par les statisticiens et Apple a une réputation d’opacité légendaire quant à ses projets de développement.

Prévisions du chiffre d’affaires du marché de l’IA dans le monde de 2021 à 2030 en millions de dollars US

Source: Statista Research Department, 13 février 2024.

L’encadrement de l’IA ?

Aucune loi, mesure ou réglementation n’encadre présentement le développement, le déploiement et l’utilisation de l’IA, et cela, à aucun niveau gouvernemental d’aucun pays et pas plus aux différents niveaux supranationaux. Tout est laissé aux bons soins des secteurs privé ou public de s’autoréguler. C’est réellement le Far West numérique. Quelques initiatives du secteur privé ou d’organisations de la société civile ont commencé à intenter des poursuites, à formuler des revendications et même à entreprendre des luttes pour limiter les effets néfastes des applications de l’IA dans certains domaines particuliers.

Divers projets de loi sont néanmoins à l’étude présentement un peu partout sur la planète, souvent le résultat de pressions de collectifs de chercheurs et d’experts dans divers domaines dont celui de l’IA ou d’organisations de la société civile. Tous ces projets ont en commun la même belle intention : favoriser le déploiement d’une IA responsable, verte, équitable, non discriminatoire et tutti quanti. Ils ont aussi en commun de faire des exceptions notables pour tout ce qui touche au secteur militaire, aux forces de l’ordre et aux services de renseignement.

Nous examinerons ici deux projets de loi, parmi les plus avancés en ce moment, soit ceux de l’Union européenne et de la Chine. Ils posent un minimum d’encadrement juridique au développement de l’IA, à son déploiement et à son utilisation. Au Canada et aux États-Unis, les projets de loi annoncés sont encore à l’état larvaire. Par exemple, le projet de loi de la Maison-Blanche a reçu l’appui des dirigeants des GAFAM (sauf Elon Musk). Cela dit tout sur la portée protectrice qu’aura cette loi sur les abus des géants de ce monde.

L’Union européenne

L’Union européenne (UE) a envisagé plusieurs projets de loi et règles pour encadrer l’intelligence artificielle. Ces projets visent à équilibrer la nécessité de prévenir les dangers liés à cette technologie et la volonté de ne pas prendre de retard.

Le 9 décembre 2023, le Parlement européen est parvenu à un accord provisoire avec le Conseil européen sur la loi sur l’IA. Le texte convenu devra être formellement adopté par le Parlement européen et son Conseil pour entrer en vigueur[16].

Voici un résumé des points clés[17] :

Le projet de loi sur l’IA de l’UE établit des obligations pour les fournisseurs et pour les utilisateurs en fonction du niveau de risque lié à l’IA. Les dispositions définissent quatre niveaux de risque :

  1. Risque inacceptable : les systèmes d’IA à risque inacceptable sont considérés comme une menace pour les personnes et seront interdits (par exemple, des technologies qui prétendent « prédire » des infractions »). Ces systèmes comprennent :
  1. Risque élevé : ces systèmes d’IA doivent se conformer à des exigences strictes. Par exemple, les systèmes d’identification biométrique et de catégorisation des personnes ou les systèmes utilisés pour la gestion et l’exploitation d’infrastructures critiques. Le projet de loi définit aussi des obligations spécifiques pour les utilisateurs d’IA et pour les fournisseurs.
  2. Risque limité : ces systèmes d’IA doivent être évalués. Par exemple, les systèmes utilisés dans les jeux vidéo ou les filtres anti-pourriel.
  3. Risque minimal : la plupart des systèmes d’IA actuellement utilisés dans l’UE relèvent de cette catégorie et ne nécessitent pas d’encadrement spécifique. Par exemple, les systèmes de recommandation.

Ces règles visent à garantir que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.

La Chine

La Chine a récemment mis en place une nouvelle réglementation concernant les contenus générés par l’intelligence artificielle. Cette réglementation vise à maintenir la compétitivité du pays dans le domaine de l’IA tout en exerçant un contrôle strict. Voici les principales règles de cette réglementation[18].

Éthique

  • Les systèmes d’IA générative doivent adhérer aux valeurs fondamentales du socialisme.
  • Ils ne doivent pas menacer la sécurité nationale ni promouvoir le terrorisme, la violence ou la haine raciale.
  • Les fournisseurs de services doivent présenter les contenus générés par l’IA comme tels et prévenir toute discrimination basée sur le sexe, l’âge et le groupe ethnique lors de la conception des algorithmes.
  • Les logiciels d’IA ne doivent pas créer de contenu contenant des informations fausses et nuisibles.
  • Les données utilisées pour l’entrainement des logiciels d’IA doivent être obtenues légalement et ne pas porter atteinte aux droits de propriété intellectuelle d’autrui.

Sécurité

En somme, la Chine cherche à équilibrer l’innovation en IA avec des mesures de contrôle pour encourager le développement tout en évitant les abus.

Angela Zhang, professeure de droit à l’Université de Hong Kong, a indiqué à l’Agence France-Presse que « la législation chinoise est à mi-chemin entre celle de l’Union européenne (UE) et celle des États-Unis, l’UE ayant l’approche la plus stricte et les États-Unis la plus souple[19] ».

GLOSSAIRE

Agent conversationnel

Logiciel capable de communiquer de façon bidirectionnelle avec un utilisateur en langage naturel, par messagerie instantanée ou au moyen d’une interface vocale. Ces « agencements technologiques sont capables de produire des paroles ou bien des écrits pendant des interactions avec des humains et de simuler des compétences humaines, des rôles sociaux ou encore des formes de relations sociales artificielles aux utilisateurs ».

Algorithme d’apprentissage automatique

L’apprentissage machine « permet de construire un modèle mathématique à partir de données, en incluant un grand nombre de variables qui ne sont pas connues à l’avance. Les paramètres sont configurés au fur et à mesure lors d’une phase d’apprentissage, qui utilise des jeux de données d’entraînement pour trouver des liens et les classifie ». Cela peut être utilisé pour « développer des calculs dans le but de concevoir, de former et de déployer des modèles d’algorithmes, principalement dans une optique de classification et/ou de prédiction de l’usage et du comportement des utilisateurs ».

Analytique augmentée

« Processus de collecte, d’organisation et d’analyse de grands ensembles de données pour découvrir des renseignements utiles et prévoir les événements pertinents ».

Boîte noire

Dans le contexte de l’IA, les boîtes noires font référence au fait que le fonctionnement interne de nombreux systèmes d’IA est invisible pour l’utilisateur, qui ne peut pas examiner la conception ou le codage du système pour comprendre comment certaines décisions ont été prises.

Bot informatique (bot)

« Logiciel automatisé qui imite le comportement humain sur les médias sociaux en publiant des informations, en affichant son approbation (like) et en s’adressant à des personnes réelles ».

Chatbot, robot conversationnel

Agents conversationnels « conçus pour interagir avec les humains en langage naturel, robot conversationnel vocal ou écrit… qui sont capables de dialoguer avec un utilisateur par téléphone via l’appui sur des touches ou la reconnaissance vocale ».

Hypertrucage

L’IA et l’apprentissage automatique permettent de créer des contenus vidéo qui imitent des personnes spécifiques. Ces techniques comprennent « le changement de visage, la reconfiguration faciale visant à modifier l’expression faciale d’un personnage ou personnalité dans une vidéo en lui faisant virtuellement répliquer la mimique réalisée en studio par un acteur ou une tierce personne, la reconfiguration labiale consistant à modifier la bouche d’une personne pour faire croire qu’elle a dit quelque chose (qu’elle n’a jamais dite), l’apprentissage de la voix pour faire dire virtuellement à une personne n’importe quel message ».

Intelligence artificielle (OQLF)

Domaine d’étude ayant pour objet la reproduction artificielle des facultés cognitives de l’intelligence humaine dans le but de créer des systèmes ou des machines capables d’exécuter des fonctions relevant normalement de celle-ci.

L’intelligence artificielle touche à de nombreux domaines, comme les sciences cognitives et les mathématiques, et à diverses applications, notamment en reconnaissance des formes, en résolution de problèmes, en robotique, dans les jeux vidéo ainsi que dans les systèmes experts.

Intelligence artificielle faible (OQLF)

Système d’intelligence artificielle conçu pour imiter une portion spécifique du fonctionnement de l’intelligence humaine, lui permettant de reproduire certains comportements humains afin d’accomplir une ou des tâches particulières.

L’intelligence artificielle faible se distingue de l’intelligence artificielle forte, cette dernière imitant l’ensemble du fonctionnement de l’intelligence humaine.

Intelligence artificielle forte (OQLF)

Système d’intelligence artificielle conçu pour imiter le fonctionnement de l’intelligence humaine dans son ensemble, et ayant la capacité de se questionner, d’analyser et de comprendre ses raisonnements.

L’intelligence artificielle forte se distingue de l’intelligence artificielle faible, cette dernière n’imitant qu’une portion spécifique du fonctionnement de l’intelligence humaine.

Intelligence artificielle générale (IAG)

Technologies d’IA « capables de traiter de l’information par un processus s’apparentant à un comportement intelligent, et comportant généralement des fonctions de raisonnement, d’apprentissage, de perception, d’anticipation, de planification ou de contrôle ».

Intelligence artificielle générative

« Méthode qui permet à un système informatique d’apprendre à partir de données existantes et de générer de nouvelles données qui peuvent être utilisées pour des applications variées telles que la création d’images, de musique, de vidéos et de contenu textuel ».

Mégadonnées (big data en anglais) (OQLF)

Ensemble d’une très grande quantité de données, structurées ou non, se présentant sous différents formats et en provenance de sources multiples, qui sont collectées, stockées, traitées et analysées dans de courts délais, et qui sont impossibles à gérer avec des outils classiques de gestion de bases de données ou de gestion de l’information.

Lorsqu’il est question de mégadonnées, il y a souvent une référence au principe des « trois V » : volume (généralement massif), variété (sources et formats divers) et vitesse (rapidité de traitement). Certains spécialistes ajoutent également la véracité (données crédibles et réelles). Les mégadonnées proviennent notamment des publications dans les médias sociaux, des données publiques mises en ligne, des données transmises par les téléphones intelligents, des relevés de transactions électroniques, des signaux des systèmes de localisation GPS, etc. Elles peuvent être de nature autant personnelle que professionnelle ou institutionnelle.

Neurone artificiel (OQLF)

Unité de base d’un réseau de neurones artificiels dont le rôle est de convertir les signaux porteurs d’information qu’elle reçoit en un signal unique qu’elle transmet à d’autres unités du réseau ou qu’elle dirige vers la sortie.

À l’origine, les inventeurs du neurone artificiel se sont inspirés du neurone biologique en tentant de lui donner un modèle mathématique.

Réseau de neurones artificiels (OQLF)

Ensemble organisé de neurones artificiels interconnectés, créé dans le but de pouvoir effectuer des opérations complexes ou de résoudre des problèmes difficiles grâce à un mécanisme d’apprentissage lui permettant d’acquérir une forme d’intelligence.

À l’origine, les créateurs de réseaux de neurones artificiels se sont inspirés du fonctionnement du système nerveux, lequel est organisé en fonction des liaisons qui s’établissent entre des neurones biologiques.

Réseau de neurones profond (OQLF)

Réseau de neurones artificiels comportant de nombreuses couches cachées qui lui permettent, en multipliant les possibilités de traitement, d’augmenter ses capacités d’apprendre, d’améliorer son efficacité à effectuer certaines opérations complexes et d’accroître ses moyens de résoudre certains problèmes difficiles.

Robot (OQLF)

Machine programmable, généralement contrôlée par ordinateur, qui est conçue pour effectuer de manière autonome une ou plusieurs tâches dans des environnements spécifiques.

Les robots sont généralement des automates évolués qui possèdent l’équipement nécessaire pour s’adapter à leur environnement et interagir avec les objets qui les entourent. Ils effectuent souvent des tâches variées qui exigent des facultés propres à l’être humain à la fois sur les plans moteur et cérébral. Les progrès de l’intelligence artificielle vont accroître l’autonomie des robots en leur permettant de disposer de mécanismes perfectionnés d’apprentissage et de prise de décisions.

Système d’intelligence artificielle (OQLF)

Système conçu pour simuler le fonctionnement de l’intelligence humaine afin d’exécuter des fonctions relevant normalement de celle-ci.

Test de Turing (OQLF)

Test qui consiste à mettre en communication, à l’aveugle, un être humain et un ordinateur afin de vérifier s’ils sont capables d’atteindre les mêmes niveaux de performance. Si l’opérateur humain ne parvient pas à distinguer lequel de ses interlocuteurs est l’ordinateur, on considère que la machine a passé le test de Turing et est ainsi dotée d’intelligence artificielle. Le test de Turing a été imaginé par le mathématicien britannique Alan Turing.

Traitement automatique du langage humain (TALN). Traitement du langage naturel (TAL)

« Technique d’apprentissage automatique qui permet à l’ordinateur de comprendre le langage humain ». Les fonctions et applications relevant du TAL incluent la traduction automatique, les agents conversationnels, et le traitement de la parole.

Traitement automatique des langues (OQLF)

Technique d’apprentissage automatique qui permet à l’ordinateur de comprendre le langage humain. Les applications du traitement automatique des langues incluent, entre autres, la traduction automatique, la synthèse de la parole, la reconnaissance de la parole, la reconnaissance de l’écriture manuscrite et l’assistant virtuel.

Références

Par André Vincent, Professeur en infographie retraité du Collège Ahuntsic, édimestre des Nouveaux Cahiers du socialisme


NOTES

  1. Chaire UNESCO pour la culture de la paix, Qu’est ce que l’intelligence artificielle ?.
  2. Dictionnaire Larousse Encyclopédie, Intelligence artificielle.
  3. Une partie de ce texte est tirée directement ou adaptée de l’article intitulé Intelligence artificielle de l’encyclopédie libre Wkipédia.
  4. Pour en savoir plus sur l’évolution de l’IA, on peut consulter les sources suivantes :
  5. Wikipédia, Intelligence artificielle.
  6. Actualité informatique, Quels sont les 3 types d’IA ?.
  7. Bouliech, CC BY-SA 4.0, via Wikimedia Commons.
  8. Wikipédia, Intelligence artificielle. Domaines d’application.
  9. Agence France Presse, « Au cœur de la course à l’IA, les puces de Nvidia suscitent la convoitise des start-up », La Croix, 29 septembre 2023.
  10. Thibault Mairesse, « L’intelligence artificielle : un gouffre financier », Études Tech, 18 octobre 2023.
  11. Tom Dotan et Deepa Seetharaman, « Big tech struggles to turn AI hype into profits », Wall Street Journal, 9 octobre 2023.
  12. Kate Saenko, « La recherche en IA est très énergivore, voici pourquoi », The conversation, 25 janvier 2021.
  13. Jack Clark et Ray Perrault, Artificial Intelligence Index Report 2023, Stanford University.
  14. Largest AI companies by market capitalization.
  15. Données regroupées de diverses sources consultées le 29 février 2024, dont : Largest AI companies by market capitalization ; Largest Chinese companies by market capitalization – CompaniesMarketCap.com; Top 10 Chinese AI Companies, AI Magazine.
  16. Parlement européen, Loi sur l’IA de l’UE : première règlementation de l’intelligence artificielle, 9 juin 2023, mise à jour le 19 décembre 2023.
  17. Ibid.
  18. Agence France-Presse, « L’intelligence artificielle encadrée par une nouvelle réglementation en Chine », Journal de Montréal, 18 août 2023.
  19. LEXPRESS.fr avec AFP, « Contenus générés par l’IA : cette nouvelle réglementation instaurée en Chine », L’Express, 19 août 2023.

Articles récents de la revue

Le Chili, après deux refus des propositions constitutionnelles

Depuis 2019, le Chili vit un rythme d’intensité politique inédit depuis la fin de la dictature d’Augusto Pinochet en 1990. À l’automne 2019, un mouvement...