fil-educavox-color1

Le 14 juin dernier, L’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique (OBVIA) [i] mettait en ligne : L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique, un rapport qui fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique.  L’évènement du lancement du rapport est disponible sur YouTube. 

Le 14 juin dernier, LObservatoire international sur les impacts sociétaux de lintelligence artificielle et du numérique (OBVIA) [i] mettait en ligne : L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique, un rapport qui fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique.  L’évènement du lancement du rapport est disponible sur YouTube. 

Le site de l’accueil de l’Obvia présente ainsi l’organisation :

Créé en 2019 à l’initiative des Fonds de Recherche du Québec dans le but d’encourager la recherche intersectorielle sur les impacts sociétaux de l'IA et du numérique, d’accompagner l’écosystème québécois dans le développement de l’intelligence artificielle, et de valoriser la recherche québécoise au niveau international. Portés par l’Université Laval, l’Obvia regroupe 19 établissements postsecondaires du Québec…. L’OBVIA a pour ambition de se distinguer par la qualité de ses recherches en matière dimpacts sociétaux et éthiques de l’IA et du numérique, par sa capacité à fédérer des expertises variées qui œuvrent en interdisciplinarité et en intersectorialité.

Le texte ci-dessous présente quelques aspects de la situation telle que compilée par les auteurs du rapport, quelques avis propres à chacun des axes (santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique)

  • Quelques extraits, (textes en italiques précédés d’une puce)

Je me permets à l’occasion d’y ajouter mon grain de sel sous forme de commentaires.

Vous trouverez à la fin du texte le lien vers le rapport de recherche et les avis scientifique.

Commentaire

Une partie de ce texte est un exemple de la paresse intellectuelle causée par la disponibilité des technologies de l’IA.  Ayant choisi des extraits des textes du rapport qui me semblaient représentatifs, j’ai demandé à ChatGPT de les réécrire de façon originale pour moi.  Est-ce du plagiat ? Ou est-ce un texte ayant la même valeur d’authenticité qu’un travail de synthèse et de réécriture qui aurait été produit uniquement par mon cerveau.  Dois-je considérer ChatGPT comme un robot culinaire qui facilite le travail et je demeure être la cuisinière (l’auteur), ou s’agit-il de textes à 6 mains : les auteurs du rapport, ChatGPT et moi. Dans ce contexte, ne faut-il pas revaloriser cette bonne vieille «honnêteté intellectuelle», concept un peu vieux jeu de nos jours.

Introduction

Lyse Langlois, Directrice générale de l’Obvia a rédigé le texte d’introduction au rapport : Vue d’ensemble 2024 sur limpact sociétal de l’IA.

Commentaire

Ce premier texte est la réécriture d’extraits de l’introduction de madame Langlois par ChatGPT. Dans un second temps, j’ai moi-même réécrit le texte produit par ChatGPT. 

Ce rapport est le résultat d’une analyse critique des travaux visant à cerner les défis sociétaux posés par l'IA et le numérique.  On y a favorisé toutefois les solutions qui intègrent les êtres vivants et la biosphère au cœur du développement et de l’utilisation des technologies.  Pour que l'IA serve véritablement la société, une coopération étroite entre gouvernements, entreprises, universités et société civile s'avère indispensable.  L'évolution technologique transforme insidieusement nos vies et nos habitudes, sans susciter de débat de société, ce qui constitue à notre avis un risque tangible. L'un des défis majeurs actuels consiste à harmoniser les valeurs et les besoins sociétaux avec la conception et le déploiement des technologies.

L'objectif de ce premier état des lieux de l'Obvia est de mettre en lumière les progrès réalisés ainsi que les lacunes actuelles. Il vise à susciter des questionnements scientifiques sur le rôle actuel de la technologie dans divers aspects de nos vies, qu'elles soient personnelles ou professionnelles.

  • Au printemps 2023, le gouvernement du Québec a mandaté le Conseil de l’innovation du Québec (CIQ) afin d’initier une réflexion collective sur l’encadrement de l’IA au Québec.

Lire sur Educavox Conseil de l’innovation du Québec : Réflexion collective sur l’encadrement de l’IA, de novembre 2023 - https://educavox.fr/innovation/dispositifs/conseil-de-l-innovation-du-quebec-reflexion-collective-sur-l-encadrement-de-l-ia

Axe Santé durable

Sous la responsabilité de : Martin Cousineau et Marie-Pierre Gagnon

En collaboration avec : Marianne Ozkan, Alexandre Castonguay, Aude Motulsky, et Maxime Sasseville

  • Au Canada, le projet de loi C-27 incluant la Loi sur l’intelligence artificielle et les données, de même que les exigences du processus d’homologation de dispositifs médicaux basés sur l’apprentissage automatique sont en cours d’élaboration (Santé Canada, 2023). Au Québec, la loi 5 sur les renseignements de santé et services sociaux et modifiant diverses dispositions législatives a été adoptée en 2023. Elle vise notamment l’optimisation de l’utilisation des renseignements de santé.

Les défis associés à la mise en place d'un cadre de responsabilité en cas de dommages ou de préjudices résultant de l'utilisation d'un système d'IA par un professionnel de la santé contribuent à l'incertitude réglementaire générale (OCDE, 2024).  L'explication algorithmique se réfère à notre capacité à comprendre les résultats produits par les algorithmes. Elle est étroitement liée à la transparence de ces algorithmes ainsi qu'à la confiance que nous accordons à leur fiabilité (Pégny et Ibnouhsein, 2018 ; Ribeiro et al., 2016). Cependant, certains modèles, en raison de leur complexité et du grand nombre de variables qu'ils incluent, restent difficiles à interpréter (Selbst et Barocas, 2018). Ces modèles complexes peuvent nécessiter des explications approximatives.

Les données utilisées pour la conception et l'amélioration des modèles de base, souvent sensibles, ne sont pas toujours transparentes, et leur protection n'est pas toujours clairement définie (Moodley et Rennie, 2023). Étant donné que le consentement individuel spécifique devient moins efficace dans le contexte des données massives, diverses approches sont proposées pour répondre aux objectifs de partage des données et de protection de la vie privée (Barocas et Nissenbaum, 2014 ; Froomkin, 2019). Ces approches incluent la révision de la portée du consentement ou la manière dont il est exercé (UNESCO, 2017 ; Cumyn, 2020 ; Ploug et Holm, 2016). Une autre approche propose de déléguer le consentement à un fiduciaire, mettant ainsi en avant la valeur collective des données (Hulin, 2022).

En 2023, l'IA à usage général a largement dominé le secteur de la santé, selon le Global Digital Health Monitor. En particulier, la radiologie représente un domaine fertile pour l'IA, avec 77 % des 691 dispositifs médicaux basés sur l'IA approuvés par la FDA en octobre 2023 étant dédiés à ce domaine (Joshi, 2024).

Dans le domaine de la biologie moléculaire, les récents progrès des modèles d'IA ont montré des performances remarquables pour prédire la structure, les fonctions, les interactions et les mutations des protéines, ce qui pourrait significativement accélérer le développement de médicaments et de vaccins (Qiu et al., 2023).

Les auteurs de l’Axe Santé durable terminent leur rapport par des suggestions de pistes d’action et implications pour les parties prenantes :

  • Le législateur ;
  • Les établissements de soins ;
  • Les ordres professionnels en santé.

Commentaire

Pour un intéressant son de cloche, lire Intelligence Artificielle Chirurgicale le compte-rendu de l’excellente présentation de Ozanan R. Meireles, MD, FACS, Professeur- École de Médecine de Harvard, Hôpital Général du Massachusetts à la fin du billet :  World Summit AI Americas 2023, https://educavox.fr/accueil/reportages/world-summit-ai-americas-2023.

Axe Éducation et capacitation

Sous la responsabilité de : Chris Isaac Larnder et Nadia Naffi

En collaboration avec : Viviane Vallerand, Otilia Holgado, Normand Roy, Simon Parent, Nathalie Glais, Bruno Poellhuber, Ann-Louise Davidson, Valéry Psyché, Janvier Ngnoulaye, Christian Desîlets, Laurence Lachapelle-Bégin, Arnold Magdelaine, Elaine Mosconi, Julie Voisin et Didier Paquelin

Un nouveau mot est apparu récemment dans le paysage de l’éducation : CAPACITATION.

Selon Wikitionnaire, Le dictionnaire libre, ce terme vient de l’anglais capacitation et appartient au domaine de la biologie.  Il identifie le «Processus de maturation physiologique de la membrane des spermatozoïdes nécessaire pour la réaction acrosomique."  Il fut par la suite adopté par la sociologie et signifie la "Prise en charge de l’individu par lui-même, de sa destinée économique, professionnelle, familiale et sociale, ou processus qui la permet. »  J’imagine que son usage en éducation vise à préciser l’objectif du processus éducatif.

  • Pour faire état des lieux, les membres de l’axe Éducation et capacitation ont choisi de mettre l’accent sur des enjeux actuels rassemblés autour de deux thématiques : le mariage entre la science des données et les sciences de l’apprentissage, et le potentiel capacitant des IA vues dans une approche sociotechnique critique (Collin et al., 2023) sous-jacente pour les personnes et les organisations.
  • …  La Loi modernisant des dispositions législatives en matière de protection des ren- seignements personnels (communément appelée Loi 25) bouscule la transformation numérique et les technologies qui s’y rattachent … Plusieurs questions se posent quant aux conséquences concrètes que cette loi peut avoir pour l’éducation et la formation : Quand et comment doit-on demander le consentement de personnes concernées lorsque leurs données personnelles sont utilisées par un système d’IA ? Est-ce qu’une donnée générée par de lIA à partir de données personnelles est considérée elle aussi comme « personnelle » ?

La théorie des capacités d'Amartya Sen (1999) examine ce qu'un individu peut accomplir en fonction des ressources et des opportunités disponibles. À la lumière de cette théorie, l'essor de l'intelligence artificielle (IA) soulève la question suivante : l'IA représente-t-elle une opportunité ou un obstacle au développement continu des compétences des individus ?

Des chercheurs soulignent les effets nocifs des écrans sur les jeunes et la nécessité de limiter l'utilisation du numérique en général.

Cette position est notamment renforcée par la publication de la veille analytique "Écrans et hyper-connectivité" par l'Institut national de santé publique du Québec (INSPQ, 2024) et l'émergence de l'IAgen.

Les risques liés à une utilisation excessive des technologies par les enfants sont mis en avant, incluant la cyberintimidation, la perte d'habiletés cognitives, l'anxiété et même la dépression. Ces effets négatifs du temps d'écran sont nombreux et bien documentés par la communauté scientifique (Fitzpatrick et al., 2023 ; INSPQ, 2024). Certains chercheurs critiquent vivement la place des technologies dans les écoles et prônent un retour aux méthodes "papier-crayon".

D'un autre côté, certains chercheurs recommandent une utilisation plus équilibrée des technologies (Giroux et al., 2024).

Ils suggèrent que les technologies, y compris l'IA, pourraient désormais soutenir les élèves dans leurs apprentissages grâce à des rétroactions courtes et directes, ou encore aider le personnel scolaire à mieux soutenir les élèves ayant des défis particuliers. Cette perspective s'aligne avec la théorie de la capacitation de Sen (1999), selon laquelle la réussite d'un individu dépend en partie de sa capacité à utiliser le numérique de manière responsable.

Les enjeux liés aux données, aux décisions d'automatisation et à l'utilisation de l'IA dans les organisations sont particulièrement critiques pour les gestionnaires et les personnes en position de leadership. Leurs niveaux de littératie en matière de données et de numérique restent assez limités, ce qui impacte l'adoption des technologies et de l'IA, ainsi que l'utilisation et la valorisation des données dans la prise de décisions (Mosconi et al., 2024).

Le potentiel d'utilisation malveillante des hypertrucages à des fins de déstabilisation croît à un rythme alarmant, mettant au défi les capacités des solutions technologiques de détection actuelles. Il est donc essentiel de former les citoyens, en particulier dès le plus jeune âge (Collard, 2024), pour qu'ils développent un esprit critique capable de déceler la désinformation véhiculée par les hypertrucages. Cela relève encore une fois d'une littératie en matière d'IA (Naffi et Beaulieu, 2023).

Les auteurs de l’Axe Éducation et capacitation terminent leur rapport par des suggestions de pistes d’action et implications qui s’inscrivent en cohérence avec les enjeux présentés et regroupés en trois types :

1) Des ressources documentaires permettant de soutenir les acteurs et actrices du réseau de l’éducation. Des ressources ouvertes et libres à produire ;

2) Des formations liées aux besoins de développement de la compétence numérique à l’ère de l’IA - Des dispositifs d’accompagnement à proposer ;

3 L’implication concrète des personnes expertes dans les processus de mise en application de l’IA en éducation -  La présence de personnes expertes.

Commentaire

L’éducation étant mon principal domaine d’intérêt, voici les liens vers quelques articles parus sur Educavox :

Élaborés en collaboration avec l’OBVIA https://www.obvia.ca/, le CTREQhttps://www.ctreq.qc.ca/ et plusieurs autres collaborateurs issus de la recherche, des milieux éducatifs et de l’écosystème Edteq, ces guides sont dédiés respectivement aux concepteurs et aux professionnels de l’éducation en vue d’une conception et d’une intégration, judicieuses et responsables, pour les milieux éducatifs.

Ce texte invite le lecteur à réfléchir à la formation à préconiser auprès des élèves des classes primaires et du collège, ces citoyens de la société de demain, suite à l’impact des technologies numériques sur nos quotidiens et en regard de linquiétante invasion de l’intelligence artificielle.

Informer, instruire, éduquer quant aux données est un essentiel d’une éducation du 21ème siècle. … L’éveil à ce qui forme un important fondement de l’informatique et de son influence sur nos vies, nos sociétés, la gestion de données massives, serait préférablement intégré au curriculum dès le primaire et tout au long du cursus.

L’utilisation de l’intelligence artificielle à partir des données scolaires pour améliorer les performances des élèves et des systèmes d’éducation demande réflexion comme le soulignent plusieurs penseurs et chercheurs à l’international.

En dernier lieu, Voyage au pays informatique paru en 2019. L’ouvrage date un peu mais plusieurs chapitres pourraient être utiles pour la formation en litératie numérique des personnels scolaires et autres intervenants du milieu de l’éducation.   Disponible en ligne chez Kobo et Amazon :

https://www.kobo.com/ca/fr/search?query=voyage+au+pays+informatique&fclanguages=fr

https://www.amazon.fr/Voyage-informatique-Ninon-Louise-LePage-ebook/dp/B07WQF29N8 

Industrie 4.0, travail et emploi

Sous la responsabilité de :  Julie Garneau et Christian Lévesque

En collaboration avec :  Isabelle Roberge-Maltais et Benoît Payette

On a souvent tendance à définir l'IA comme un changement radical, mais elle se déploie de manière graduelle, par couches successives, souvent en arrière-plan et de façon invisible (Kellogg et al., 2020).

Cela pourrait expliquer pourquoi environ un tiers des 3 000 professionnels du Québec interrogés par les chercheurs de l'Obvia déclarent ne pas être conscients de l'utilisation d'outils d'intelligence artificielle dans leurs entreprises ou organisations, bien que 86 % d'entre eux affirment utiliser largement les technologies numériques dans le cadre de leurs activités professionnelles (de Marcellis-Warin et Mondin, 2022).

L'introduction de l'intelligence artificielle (IA) comme outil de production dans les milieux de travail suscite à la fois espoir et crainte.

Le risque d'être remplacé par une IA est souvent présenté dans les médias comme une menace majeure pour l'emploi actuel et futur. Cependant, ce ne sont pas tant les emplois eux-mêmes qui seront affectés, mais plutôt certaines de leurs tâches.   La problématique concerne moins la quantité d'emplois que la qualité du travail. Bien qu'il soit difficile de conclure avec certitude sur l'impact réel de la perte d'emploi, diverses données montrent que tous les secteurs d'activité (fabrication, services, transport, tourisme, etc.) et les fonctions de l'entreprise (production, gestion de la chaîne d'approvisionnement, marketing, comptabilité, ressources humaines, contentieux, etc.) pourraient être affectés par l'introduction des nouvelles technologies. L'ampleur de ces impacts variera selon les secteurs et les institutions en place, entraînant vraisemblablement une recomposition des professions et des métiers.

Pour résumer les différentes littératures, les chercheurs ont identifié trois grandes catégories d'indicateurs :

  • Risques au travail : Ces risques peuvent être économiques, sociaux, physiques ou psychologiques.
  • Autonomie au travail : Cela dépend de la manière dont l'IA influence la capacité des travailleurs à prendre des décisions concernant la séquence des tâches et l'exécution du travail.
  • Sens du travail : Cela concerne la signification et l'épanouissement que les employés trouvent dans leur travail, ainsi que leur opportunité de développer et mobiliser leurs compétences et aptitudes.

Selon les situations, ces dimensions peuvent être complémentaires ou parfois contradictoires.

Dans les pays, secteurs et entreprises où les processus et régulations permettent aux employés et à leurs représentants de participer à toutes les étapes de l'implémentation de l'IA, les effets sur la qualité du travail sont généralement plus positifs.

Placer les humains au cœur de l'IA revient également à privilégier l'aspect humain à la fois dans sa dimension individuelle et collective.

Un des défis majeurs consiste à déterminer les conditions nécessaires pour que l'IA contribue à améliorer qualitativement les aspects essentiels du travail. 

Quelles formes organisationnelles et institutionnelles peuvent favoriser une participation active d'une diversité de parties prenantes possédant des expertises variées, étant donné que les entreprises ne peuvent pas y parvenir seules ? Cette entreprise est considérable, surtout pour de nombreuses PME qui ne disposent pas des ressources internes nécessaires. 

Quelles ressources collectives et compétences sont nécessaires pour que les parties prenantes disposent des outils leur permettant d'agir collectivement dans le déploiement de l'IA ?  Quelles compétences doivent être développées et mobilisées pour assurer une implémentation inclusive et responsable des nouvelles technologies et de l'IA au sein des organisations ? Cette question est cruciale pour garantir une intégration adéquate et éthique de ces technologies.

Axe, Arts, médias et diversité culturelle

Sous la responsabilité de :  Colette Brin et Véronique Guèvremont

En collaboration avec :  Charlotte Tessier et Johanne Chanca

Remerciements :  Camila Moreira Cesar, François Giard, Isabelle Henrion-Dourcy, Jocelyne Kiss, Aaron Liu-Rosenbaum et Fatiha Sadat

Culture

Dans le domaine des industries culturelles et créatives, l'IA, notamment l'IA générative, soulève des préoccupations significatives.

Les discussions récentes ont remis en question la dissociation initiale entre créativité et IA, ces concepts étant traditionnellement considérés comme étrangers l'un à l'autre. Les progrès récents dans le domaine de l'IA générative remettent en question cette séparation (Crimaldi et Leonelli, 2023).

Certains auteurs avancent que parler d'IA créative est incorrect car les IA ne possèdent pas les caractéristiques fondamentales de la créativité humaine telles que l'authenticité, l'originalité et l'émotivité. Ainsi, ils préfèrent utiliser le terme de "créativité artificielle" pour distinguer nettement ces deux formes de créativité (Runco, 2023).

En revanche, d'autres défendent l'idée de "co-créativité", décrivant un processus où la créativité humaine et l'IA interagissent de manière synergique (Wingström et al., 2024), ou encore de "créativité humaine augmentée" (Eapen et al., 2023), soulignant une collaboration enrichissante entre les capacités créatives humaines et artificielles.

Commentaire

 La Créativité : trois regards et quelques références,https://www.ludomag.com/2019/05/23/la-creativite-trois-regards-et-quelques-references/   

  • Le phénomène AlphaGo Zéro,  une version améliorée du logiciel de go AlphaGo produite par l'entreprise DeepMind introduite par un article dans la revue Nature du 19 octobre 2017. Il s'agit d'une version développée sans l'aide de données provenant de parties jouées entre humains, ni de connaissances autres que les règles du jeu. … L'apprentissage par lintelligence artificielle sans données provenant d'experts humains a d'importantes implications pour le développement d'IA à talents surhumains … AlphaGo Zero est devenu aussi fort parce qu'il n'était « plus contraint par les limites de la connaissance humaine.  Source : Wikipedia, AlphaGo Zero, https://fr.wikipedia.org/wiki/AlphaGo_Zero
  • AlphaGo Zero also discovered new knowledge, developing unconventional strategies and creative new moves that echoed and surpassed the novel techniques it played in the games against Lee Sedol and Ke Jie. (AlphaGo Zero a également découvert de nouvelles connaissances, développant des stratégies non conventionnelles et de nouveaux mouvements créatifs qui faisaient écho et surpassaient les nouvelles techniques utilisées lors des matchs contre Lee Sedol et Ke Jie.)

These moments of creativity give us confidence that AI will be a multiplier for human ingenuity, helping us with our mission to solve some of the most important challenges humanity is facing. (Ces moments de créativité nous donnent la certitude que l'IA sera un multiplicateur de l'ingéniosité humaine, nous aidant dans notre mission : résoudre certains des défis les plus importants auxquels l'humanité est confrontée.)

La créativité de l’IA … If similar techniques can be applied to other structured problems, such as protein folding, reducing energy consumption or searching for revolutionary new materials, the resulting breakthroughs have the potential to positively impact society. (Si des techniques similaires peuvent être appliquées à d’autres problèmes structurés, comme le repliement des protéines, la réduction de la consommation d’énergie ou la recherche de nouveaux matériaux révolutionnaires, les avancées qui en résulteront pourraient avoir un impact positif sur la société.)

Source : AlphaGo Zero: Starting from scratch https://deepmind.google/discover/blog/alphago-zero-starting-from-scratch/

L'impact de l'IA sur la chaîne de valeur culturelle ne se limite pas à la création artistique.

L'accès aux expressions culturelles dans l'environnement numérique est profondément transformé par l'avènement de cette technologie dans les industries culturelles et créatives (Brin et Guèvremont, 2024).  L'IA peut représenter une source d'opportunités significatives, notamment lorsqu'elle est utilisée pour numériser, préserver et rendre accessibles des œuvres fragiles telles que des peintures ou des manuscrits anciens (Culture Montérégie, 2024).

Cependant, la numérisation de certains types de patrimoine soulève également des préoccupations, notamment en ce qui concerne l'appropriation culturelle et le respect de la confidentialité des données (Culture Montérégie, 2024). De plus, des enjeux éthiques émergent de la numérisation du patrimoine culturel immatériel, étant donné que ce patrimoine est souvent considéré comme étroitement lié aux communautés qui le possèdent et en assurent généralement la transmission.

Intimement liée aux questionnements qui précèdent est la réflexion sur la notion même d’auteur qu’engendre lessor de lIA générative dans le champ de la création artistique.

Certains soutiennent que le droit d'auteur vise principalement à stimuler la créativité en accordant des droits exclusifs aux créateurs. Ainsi, l'utilisation non autorisée d'œuvres par l'IA pourrait constituer une menace pour la rémunération équitable des artistes et, par extension, pour la créativité humaine elle-même. En effet, en s'appropriant des œuvres sans permission des détenteurs de droits, l'IA pourrait compromettre le modèle économique traditionnel qui récompense les créateurs pour leur travail. 

En revanche, pour d'autres, l'IA représente plutôt une source de créativité en augmentant le potentiel des artistes (Kulesz parle à ce titre d'artistes "augmentés") et en stimulant la productivité des industries culturelles et créatives.

Un autre débat concerne la question de la rémunération équitable des artistes dont les œuvres sont utilisées pour entraîner les systèmes d'IA. Cette question soulève des préoccupations importantes quant à la juste compensation des créateurs dont le travail contribue au développement et à la performance des algorithmes d'IA.

Médias

 Les IA génératives posent une question fondamentale pour le journalisme concernant l'exactitude de l'information et la relation avec les faits, voire avec la réalité. La propagation de la mésinformation et de la désinformation a été identifiée comme le principal risque mondial pour les deux prochaines années par le World Economic Forum (2024), en particulier en raison des nombreuses élections prévues pendant cette période. Selon ce rapport, ce défi restera parmi les principaux risques mondiaux dans les années à venir, accentué par les effets néfastes de l'intelligence artificielle. Ce problème est particulièrement préoccupant pour les médias d'information (Fallaha et al., 2024 : p. 21).

Répondant à cette préoccupation croissante, de nombreux médias, associations et organisations journalistiques ont récemment adopté des chartes d'IA, bien que la plupart soient encore assez générales et préliminaires. Au cœur de ces réflexions se trouve la question de la confiance du public à l'égard des médias, déjà sérieusement ébranlée. De plus, il est constaté que la capacité d'adaptation, de développement et de conservation de l'expertise en IA au sein des médias, surtout dans des marchés plus restreints comme celui du Québec, semble être limitée (Académie de la transformation numérique et Centre d'études sur les médias, 202315).

Au Canada, le blocage du contenu des médias d’information sur les plateformes du groupe Meta à la suite de l’adoption de la loi C-18 a rappelé́ l’influence considérable des géants du numérique sur la visibilité des contenus journalistiques (Parker et al., 2024).

L'accès à une information de qualité constitue une seconde préoccupation majeure. Aujourd'hui, un utilisateur non expert peut facilement créer un site web de désinformation à l'aide d'outils d'IA générative, ce qui complique considérablement la tâche pour les citoyens de distinguer le vrai du faux (Labrecque, 2023).

L'utilisation d'outils d'IA permet non seulement de personnaliser l'offre de contenus, mais également d'orienter la production de contenus vers des segments particuliers d'utilisateurs. Cette évolution pose de manière nouvelle le vieux problème du "public imaginé" en journalisme, une vision potentiellement réductrice ou biaisée du public réel dans toute sa diversité et complexité (Siegel, 2024). Certains estiment que l'introduction de processus automatisés risque de confiner le public à une consommation passive (Béasse, 2021), tandis que d'autres y voient une opportunité de rapprocher l'information des citoyens et de promouvoir la diversité des perspectives (Lin et Lewis, 2022).

Les textes de l’Axe, Arts, médias et diversité culturelle se terminent par une série de Pistes d’action et implications pour les parties prenantes.

Axe Sobriété numérique et transition socio-écologique

Sous la responsabilité de : Christophe Abrassart et Stéphane Roche

En collaboration avec :  Florent Begue et Alexandre Gourret

Le numérique et l'environnement entretiennent une relation complexe et ambivalente.

D'un côté, le numérique peut contribuer, sous certaines conditions, au développement d'outils de mesure et de gestion pour la transition socio-écologique. D'un autre côté, une préoccupation croissante concerne l'empreinte environnementale grandissante du numérique et de l'intelligence artificielle.

L'ADEME et l'Arcep ont souligné dans une étude récente que, en France, le secteur numérique représentait en 2020 environ 10 % de la consommation électrique nationale et 2,5 % des émissions de gaz à effet de serre (ADEME-Arcep, 2023). Ces chiffres pourraient augmenter considérablement d'ici 2050, avec une prévision de près de +200 % pour les émissions de gaz à effet de serre et près de +100 % pour la consommation électrique, ce qui mettrait une pression accrue sur la disponibilité des métaux nécessaires à la fabrication des équipements (ADEME-Arcep, 2023). 

À l'échelle mondiale, le Global E-Waste Monitor indique qu'en 2022, 62 millions de tonnes de déchets électroniques ont été produits, avec une projection de +32 % d'ici 2030. Cela équivaut à une moyenne de 7,8 kg par habitant, avec des variations significatives entre régions (UNITAR, 2024).

D'autres défis environnementaux et sociaux sont également soulevés, comme la destruction de la biodiversité et les violations des droits humains dans les activités minières nécessaires à l'extraction des métaux pour les équipements numériques, ainsi que les impacts de la consommation d'eau pour le refroidissement des centres de données ou la pollution résultant de l'exportation des déchets électroniques vers les pays du Sud.

Face à ces défis, deux grandes stratégies sont préconisées par les experts et intégrées dans les politiques publiques environnementales : l'écoconception des équipements et des services numériques, visant à réduire leur impact environnemental tout au long de leur cycle de vie, et la sobriété numérique, qui encourage une utilisation plus sobre et efficiente des technologies numériques.  Ces initiatives visent à concilier les avantages du numérique avec la nécessité de préserver l'environnement et de promouvoir un développement durable à long terme.

 Commentaire

La sobriété numérique est visiblement à contre-courant des tendances actuelles au sein des entreprises et des gouvernements où l’usage des technologies numériques est fortement favorisé.

Nous assistons à des rassemblements dont les programmes ne sont accessibles qu’en ligne, il faut lire les menus de plusieurs restaurants avec un code QR, nos rendez-vous médicaux se prennent en ligne.  Ce ne sont que quelques simples exemples de l’invasion des technologies numériques dont nous subissons tous les conséquences au quotidien.

  • Plusieurs référentiels d’écoconception sont parus ces dernières années, notamment le Référentiel général des services numériques de l’Arcep-Arcom (Arcep, Arcom et ADEME, 2024), le plus récent, qui inclut également des critères sur les systèmes d’IA. Le second régime d’écoconception est celui de l’écoconception technico-innovante, …
  •  Un centre de données immergé dans l’océan pour son refroidissement.

Commentaire

Il s’agit d’une mauvaise idée compte-tenu des dangers du réchauffement des océans.

Les effets du changement climatique sur les océans, https://www.un.org/fr/climatechange/science/climate-issues/ocean-impacts

  • Avec une hausse actuelle de température de 1,1 °C, on estime que 60 % des écosystèmes marins de la planète ont déjà été dégradés ou qu’ils sont utilisés de façon non durable. Un réchauffement de 1,5 °C menace de détruire 70 % à 90 % des récifs coralliens, et une hausse de 2 °C entraînerait la disparition de presque 100 % des récifs - on atteindrait alors un point de non-retour.
  • En plus d’intensifier les cyclones tropicaux, l’élévation du niveau de la mer a exacerbé les phénomènes extrêmes tels que les ondes de tempête mortelles et autres risques côtiers (inondations, érosion et glissements de terrain), qui devraient désormais survenir au moins une fois par an dans de nombreux endroits. Historiquement, ce type de phénomènes survenait une fois par siècle.

On peut consulter à la page 36 du rapport Une cartographie des cadrages et problématisations.

Le schéma propose une cartographie des deux stratégies en quatre quadrants.

Deux polarités sont considérées : la première oppose une logique d’optimisation du système sociotechnique existant à une autre de transformation de ce système. La seconde polarité oppose une recherche d’efficacité de fonctionnement sans questionner les fonctions d’usage (écoconception) à une démarche de reconception critique et créative des fonctions d’usage (sobriété).

Au croisement de ces deux polarités apparaissent quatre quadrants permettant de thématiser quatre idéotypes de stratégies de durabilité dans le numérique.

Les textes de l’Axe Sobriété numérique et transition socio-écologique se terminent par des Pistes d’action et implications pour les parties prenantes :

Des scénarios sur la sobriété numérique socialement innovants au Québec en 2050, seront prochainement produits et mis en débat avec un large public dans le cadre d’ateliers d’experts et de conversations citoyennes, afin de générer des apprentissages pour mieux définir des politiques potentielles de sobriété numérique au Québec.

Ces scénarios mettront en valeur :

    • Des dispositifs de sobriété variés,
    • Des logiques de regroupement par exemple une priorisation spatiale pour l’usage du numérique de l’usage des données et des algorithmes dans certains secteurs essentiels
    • Des équipements dont l’usage est grandement prolongé par la maintenance et la réparation dans une logique de care et de « circularité forte » (Aggeri et al., 2023)
    • Des nouvelles politiques de mémoire et d’effacement sélective des données avec des centres de données ayant le statut de « biens communs mondiaux ».

Axe Droit, cyberjustice et cybersécurité

Sous la responsabilité de : Vincent Gautrais et Anne-Sophie Hulin

En collaboration avec : William Auclair

Au cours des deux dernières années, nous avons assisté à un tournant significatif dans la gouvernance de l'IA : poussé par une pression légale qui accompagne l'éthique, un encadrement plus robuste de l'IA est devenu une priorité. Cette nouvelle gouvernance cherche à renforcer le contrôle tout en explorant une multitude de possibilités.

  • Le modèle européen constitue actuellement le paroxysme de la juridicisation de la gouvernance de l’IA avec le Règlement sur l’intelligence artificielle (Parlement européen, 2024). Reposant sur une approche fondée sur les risques, cette loi de l’Union européenne dresse une liste de pratiques interdites en raison d’un niveau de risque jugé inacceptable et pose des obligations strictes pour la mise en marché des systèmes présentant un niveau de risque élevé (EU Artificial Intelligence Act, 2024).
  • Avec le projet de loi C-27 (Projet de loi C-27, 2022), le Canada adopte également la stratégie d’une « mise en droit » de l’IA. Bien que des analogies puissent être établies avec le texte européen, le projet de loi canadien pose des exigences de mise en marché moins contraignantes.

La place et le rôle du droit, ainsi que son interaction avec d'autres sources normatives, occupent une position centrale dans les discussions sur la gouvernance de l'IA.

Cette question soulève naturellement la pertinence et l'opportunité d'adopter une législation spécifique à l'IA, ainsi que des considérations sur sa flexibilité et sa durabilité à long terme.

Ces débats suscitent également des réflexions sur la relation entre le cadre juridique existant et la nécessité éventuelle de développer un nouveau corpus juridique dédié, ainsi que sur l'articulation entre le droit général et les régulations spécialisées. Au Québec, comme au sein de la communauté juridique en général, il y a actuellement un débat en cours sur l'adoption d'un tel corpus juridique pour encadrer l'IA de manière efficace et éthique.

L'exemple de l'imagerie médicale montre comment les systèmes d'IA (SIA) sont de plus en plus utilisés dans les hôpitaux pour soutenir le travail des radiologues, souvent en les assistant dans l'identification des anomalies. Ce domaine illustre bien comment les SIA peuvent fournir des résultats fiables, opérant dans un cadre légal et institutionnel robuste, principalement en raison de l'importance publique élevée associée à la santé.

Les textes de l’Axe Droit, cyberjustice et cybersécurité se terminent par des pistes d’action et implications pour les parties prenantes :

 Sans prétendre à lexhaustivité, il convient de souligner les éléments substantiels et institutionnels suivants.

  • Le domaine du numérique se caractérise par un climat de déresponsabilisation de ses acteurs. Remontant aux années 2000, celui-ci est alimenté par l’incertitude (Lacroix et Vermeys, 2023 : p. 61 et s.), les carences (Loi concernant le cadre juridique des technologies de l’information. RLRQ, c. C-1.1, art. 22 ; voir les commentaires sur cet article dans Gautrais et al., 2023 : p. 85-87) et les exonérations (Code civil du Québec. RLRQ, c. CCQ-1991, art. 1473 ; Lacroix et Vermeys, 2023 : p. 104-106) qui pèsent sur l’application des régimes de responsabilité aux SIA.
  • La recherche de solutions pour soutenir une plus grande responsabilisation des acteurs de lIA en l’absence d’une loi qui imposerait des obligations spécifiques en amont de la mise en marché des SIA – invite aussi à la (re)découverte de principes juridiques existants.
  • Le principe de précaution, qui consiste à anticiper les risques et à adopter des mesures préventives pour réduire d’éventuels effets négatifs graves et irréversibles dans un contexte d’incertitude (Centre québeccois du droit de l’environnement, 2024 ; Botes, 2023 : p. 1), peut être appliqué à l’IA, plus particulièrement aux développeurs et aux utilisateurs :
  • Les obligations fiduciaires, telles que la loyauté et la diligence, sont également explorées comme leviers de transposition du principe de transparence dans la conception et dans le fonctionnement des algorithmes (Boine, 2023) pour renforcer la protection des renseignements personnels, pour prévenir les biais discriminatoires et, plus largement, pour intégrer de manière juridique la prise en compte des implications éthiques et sociales des applications de lIA (Balkin, 2020; Richards et Hartzog, 2021; Benthall et Shekman, 2023).
  • Le principe de justification sociale, est un critère jurisprudentiel en droit constitutionnel canadien permettant de mesurer et de balancer les atteintes aux libertés fondamentales qui peut être instrumentalisé afin de proposer une réponse collective au développe- ment et à l’exploitation des SIA (Gautrais et al., 2023)
  • … il est primordial de s’intéresser aussi à la réponse institutionnelle que l’on se doit d’apporter aux SIA ….
  • Enfin, pour éviter les écueils susnommés liés au contexte d’urgence et de polarisation, il paraît crucial d’adopter une approche mesurée et inclusive dans l’élaboration des réglementations portant sur l’IA. Cela implique de prendre le temps nécessaire pour évaluer soigneusement les avantages et les inconvénients des différentes options réglementaires,…

Axe Éthique, gouvernance et démocratie

Sous la responsabilité de : Allison Marchildon et Bryn Williams-Jones

En collaboration avec : Antoine Boudreau LeBlanc et Gabrielle Verreault

Au cours des dernières années, une riche littérature scientifique s'est développée autour des questions éthiques suscitées par les avancées en intelligence artificielle (IA) (Jobin et al., 2019; Floridi et al., 2018), en robotique (Boch et al., 2021), et plus largement dans le domaine numérique (Ashok et al., 2022). Parmi les sujets les plus débattus, on trouve l'accès aux données et leur protection (Hulin, 2022; Auclair, 2023), le respect de la vie privée (Shapiro, 2010; CACM Staff, 2012), la propriété intellectuelle (Lee et al., 2021; Zakir et al., 2023), l'explicabilité des systèmes (Bélisle-Pipon et al., 2022b; Li et al., 2022; Ursin et al., 2023), la fiabilité et la gestion des secrets industriels (Marty, 2019; Meyers, 2018), ainsi que les enjeux gouvernementaux (Saetnan et al., 2018) et les biais discriminatoires (Besse, 2020).

D'autres thèmes abordent les inégalités (Conseil du statut de la femme, 2023; Marques, 2022), les injustices locales et internationales (Boddington, 2023; Gentelet, 2023), l'autonomie individuelle, et les préoccupations environnementales telles que l'exploitation des ressources naturelles et énergétiques comme les métaux stratégiques (Dauvergne, 2022; Spelda et Stritecky, 2020).

Ces discussions interrogent également les pouvoirs et les responsabilités des développeurs technologiques, des régulateurs (Jacob et Lawarée, 2022), ainsi que des utilisateurs et de la société civile (Gentelet et al., 2024; Petitgand, 2024) qui façonnent ou subissent ces technologies. Elles ouvrent des perspectives sur les risques et les possibilités d'une gouvernance algorithmique de nos sociétés (Langlois et Castets-Renard, 2021; Poussart, 2021)...

Les questions d'éthique et de gouvernance en intelligence artificielle se distinguent par leur importance critique et leur pertinence intersectorielle.

L'éthique de l'IA interpelle non seulement les milieux académiques, mais aussi les acteurs clés dans divers domaines d'activité, qui cherchent de plus en plus à intégrer des considérations éthiques dans le déploiement de l'IA, bien que cela se fasse à des degrés variés et avec des succès différents.

Une critique de plus en plus fréquente affirme que l'éthique pourrait constituer un frein à l'innovation, une critique souvent associée à ce que l'on pourrait appeler un "dénigrement de l’éthique» (Ethic Bashing).  (Bietti, 2020). Cette perspective soulève des questions importantes sur la contribution de l'éthique dans le domaine de l'IA, mettant en lumière sa capacité à analyser de manière nuancée des problématiques complexes et transversales, une approche distincte mais complémentaire par rapport au droit, qui reste également essentiel.

Dans l'optique de renforcer l'encadrement de l'IA, de plus en plus de chercheurs plaident en faveur d'une reconnaissance de l'éthique comme un complément au droit plutôt que comme un obstacle, afin de tirer parti de leurs synergies respectives (Bietti, 2020 ; Seger, 2022; Koniakou, 2023).

Les textes de l’Éthique, gouvernance et démocratie se terminent par des pistes d’action et implications pour les parties prenantes :

… on constate que la réflexion éthique appliquée à l’IA est à la fois présente et nécessaire à tous les stades de son développement, dans sa gouvernance et dans tous ses champs dapplication.

  • Favoriser la réflexion éthique et critique des différentes parties prenantes touchées par l’IA, incluant la société civile et les décideurs publics,
  • Favoriser la participation des différentes parties prenantes touchées par l’IA, incluant la société civile, dans la gouvernance de lIA  …
  • Intégrer les considérations et réflexions éthiques au cœur de la gouvernance de l’IA ….
  • Mener des recherches collaboratives impliquant chercheur.e.s et développeurs dIA, de même que des décideurs publics …

Conclusion

Dans le cadre de sa mission interdisciplinaire et intersectorielle, l'Obvia a rassemblé les expertises de ses 7 axes de recherche thématiques pour analyser les impacts sociétaux de l'IA et du numérique, dressant ainsi un état des connaissances actuelles et identifiant les principaux enjeux.

Cette collaboration a mis en lumière une multitude de risques, d'opportunités et de débats, tout en proposant des pistes d'action pour les parties prenantes impliquées. Bien que certains enjeux soient spécifiques à des axes ou disciplines particuliers, il est apparu que plusieurs sont transversaux, affectant plusieurs domaines simultanément.

Au-delà des spécificités de chaque axe de recherche, les débats scientifiques ont soulevé des questions fondamentales concernant la légitimité et l'éthique des diverses applications de l'IA.

L'implication des parties prenantes et du grand public nécessite un niveau approprié de littératie numérique et de compréhension des enjeux liés à l'IA. De même, l'intégration des considérations éthiques et sociétales tout au long du développement et de la régulation de l'IA repose sur une compréhension informée et actualisée de ses impacts sur la société et le numérique. Il est donc crucial de continuer à documenter ces impacts pour guider de manière éclairée les décisions et les actions futures.

            C’est un travail à poursuivre … vivement la suite.

On trouve à la fin du rapport une imposante bibliographie.

Voici le lien qui mène vers la consultation du rapport :  https://www.obvia.ca/ressources/etat-de-la-situation-2024

Référence bibliographique

Obvia. (2024). État de la situation sur les impacts sociétaux de l’intelligence artificielle et du numérique - 2024. https://doi.org/10.61737/CFRT3613


[i] OBVIA

  https://www.obvia.ca/qui-sommes-nous

Dernière modification le lundi, 01 juillet 2024
Ninon Louise LePage

Sortie d'une retraite hâtive poussée par mon intérêt pour les défis posés par l'adaptation de l'école aux nouvelles réalités sociales imposées par la présence accrue du numérique. Correspondante locale d'Educavox pour le Canada francophone.