fil-educavox-color1

Article proposé par Ninon-Louise LePage -Ressource : L'OBVIA- Observatoire international sur les impacts sociétaux de l'IA et du numérique *- publié le 10 octobre 2024 : Éduquer contre la désinformation amplifiée par l’IA et l’hypertrucage : une recension d’initiatives de 2018 à 2024. Co-responsables de l’axe Éducation et Capacitation : Nadia Naffi, Chercheuse responsable de l’Axe Éducation et Capacitation à l’Obvia, titulaire de la Chaire de leadership en enseignement (CLE) sur les pratiques pédagogiques innovantes en contexte numérique – Banque Nationale et Professeure adjointe au Département d’études sur l’enseignement et l’apprentissage à l’Université Laval, Chris Larnder Chercheur responsable de l’Axe Éducation et Capacitation à l’Obvia, Professeur au John Abbott College Obvia.

S'adressant à la communauté scientifique, à la classe politique, au personnel enseignant et aux conseillers et conseillères pédagogiques, ce rapport présente les résultats d’une recension d'initiatives visant à éduquer la population contre la désinformation propulsée par l’utilisation non éthique de l’IA.

Extrait du document : Introduction

Propagande, manipulation de l’information, fausses nouvelles, la désinformation ne date pas d’hier et s’est retrouvée souvent au cœur de nombreux événements historiques. Que ce soit la campagne de désinformation menée par l’empereur Auguste contre ses adversaires durant la Rome Antique (Jeffries, 2006), la prétendue présence d’extra terrestres sur la surface de la Lune par le journal The New York Sun, à des fins de sensationnalisme au XIXe siècle (Vida, 2012) ou encore les diverses fausses nouvelles entourant la campagne de vaccination contre la COVID-19 (Statistique Canada, 2024), les raisons motivant la désinformation sont nombreuses avec des conséquences préoccupantes à l’échelle même de notre démocratie.

Or, depuis l’arrivée d’Internet et, plus récemment, depuis l’essor de l’Intelligence Artificielle (IA), dont l’IA générative, le phénomène s’est amplifié (Monteith et al., 2024). Tandis qu’auparavant la création et la diffusion de campagnes de désinformation étaient coûteuses en temps et en argent, l’IA facilite, aujourd’hui, la création de contenus trompeurs à grande échelle, causant ainsi une augmentation des risques de la désinformation (Monteith et al., 2024).

Une des sphères dans laquelle la désinformation propulsée par IA peut être particulièrement préjudiciable est celle de la démocratie.

Dans la dernière année, différents événements impliquant une utilisation non éthique de cette technolo gie ont fait les manchettes. Un premier exemple du phénomène est celui de l’utilisation de l’IA générative dans l’élection fédérale de 2023 en Argentine. Lors de cette élection, de nombreuses affiches et vidéos ont été générées par IA. Bien que la majorité du matériel était identifié comme étant généré par IA (ou était assez exagéré pour que la majorité s’en rendent compte), l’incursion de l’IA dans cette élection a bien démontré le rôle que cette technologie peut jouer en période électorale (Nicas et Herrera, 2024). Un deuxième exemple est une vidéo générée par hypertrucage de la candidate à la présidence américaine Kamala Harris. Dans la vidéo, vue à plus de 24 millions de reprises (Mr Reagan, 2024), des propos qui n’ont jamais été dits par la candidate sont prononcés par une voix qui s’apparente à la sienne. Comme il n’est pas indiqué que la vidéo est truquée, certains la dénoncent, car elle partage des informations qui sont fausses et elle pourrait influencer le vote de certains électeurs (Wilson, 2024).

Ces exemples ne représentent que la pointe de l’iceberg d’un phénomène qui risque de prendre de l’ampleur dans les prochaines années.

C’est notamment ce qu’anticipe le groupe Horizons, un Centre d’excellence en prospective du Canada affilié au ministère Emploi et Développement social du Canada.

Dans son rapport « Perturbations à l’horizon » publié en 2024, le centre fait état des 10 perturbations ayant le plus de chances de se produire et les 10 ayant le plus d’impact dans le pays. En tête de liste des perturbations les plus probables, l’organisation place « Les gens ne peuvent pas dire ce qui est vrai et ce qui ne l’est pas » (Horizons, 2024). Le groupe Horizon voit aussi « l’IA [qui] se déchaîne » comme la dixième perturbation la plus susceptible de se produire. Même son de cloche du côté du World Economic Forum dans la parution du Global Risks Report 2024 où l’organisation considère la désinformation et la mésinforma tion comme le risque le plus important à court terme à considérer dans le monde. La majorité des experts et expertes interviewé·e·s ont mentionné anticiper une polarisation des idéologies dans les prochaines décennies et exhortent les autorités à coopérer à l’international pour trouver des solutions à ce problème pressant (World Economic Forum, 2024).

Malgré les préoccupations vis-à-vis de la désinformation par l’IA comme le démontre ce rapport, des solutions existent.

Parmi elles, se trouve l’éducation contre la désinformation par l’IA pour les informer les personnes apprenantes sur ce phénomène et les outiller pour savoir déceler le vrai du faux (Washington, 2023).

Depuis quelques années, plusieurs initiatives pour éduquer la population contre la désinformation propulsée par l’utilisation non éthique de l’IA ont vu le jour dans le monde. Pour orienter la recherche et concerter les efforts, ce rapport présente les résultats d’une recension de telles initiatives. Bien que cette recension ne se veut pas systémique pour différents enjeux qui seront abordés dans la méthodologie, elle permet d’avoir une idée de la variété des approches visant à informer et éduquer les personnes apprenantes et le personnel enseignant sur cette nouvelle réalité.

En documentant de nombreuses initiatives, dont plusieurs sont libres d’accès, ce document permet à la communauté scientifique, à la classe politique, au personnel enseignant et aux conseillers et conseillères pédagogiques de consulter ce qui se fait déjà à différents endroits dans le monde.

En découvrant ces initiatives, ces acteurs et actrices scolaires pourront prendre connaissance des angles morts en recherche sur le sujet, des possibles orientations de programmes ou encore des idées d’activités complètes et déjà testées pour éduquer sur cette réalité. Comme ce document contient aussi plusieurs ressources de développement professionnel sur le sujet de la désinformation propulsée par IA, il permet aussi au personnel enseignant ou aux conseillères et conseillers pédagogiques d’avoir accès à des sources pertinentes pour en apprendre plus sur ce phénomène. Il reste important de mentionner que cette recension n’a pas la prétention de présenter l’ensemble des initiatives visant à éduquer à la désinformation par l’IA, elle fait plutôt un premier état des tendances en éducation pour prévenir ce phénomène.

Dans ce rapport, nous aborderons d’abord la méthodologie utilisée pour réaliser cette recension.

Les résultats qui en émergeront seront ensuite présentés. S’ensuivra une discussion des tendances et angles morts remarqués à la lumière de ces résultats.

Mais avant de plonger au cœur du rapport, il vaut la peine de dissocier les termes utilisés. Même si le terme « désin formation » est souvent mentionné, il existe des déclinaisons qui permettent de nuancer le phénomène. Tandis que la désinformation consiste en la diffusion de fausses informations avec l’intention de tromper ou manipuler, la mésinfor mation permet cette diffusion, mais se fait sans mauvaises intentions (Canadian Centre for Cyber Security, 2024).

Pour ce qui est de la malinformation, elle représente une diffusion d’information qui se base sur un fait, mais ce dernier est exagéré dans le but de manipuler (Canadian Centre for Cyber Security, 2024). Par souci de concision, nous utiliserons le terme « désinformation » dans le cadre de ce rapport, mais ces dissociations restent importantes à aborder auprès des personnes apprenantes et du personnel enseignant afin de comprendre les nuances du phénomène.

Naffi, N., Larnder, C., Vallerand, V. et Duguay, S. (2024).
Éduquer contre la désinformation amplifiée par l’IA et l’hypertrucage : une recension
d’initiatives de 2018 à 2024. Obvia.

Ressource publiée sur l'OBVIA et proposée par Ninon-Louise LePage

https://doi.org/10.61737/QCHR7582

https://www.obvia.ca/sites/obvia.ca/files/ressources/202410-OBV-Pub-Eduquer_Contre_Desinformation_0.pdf

*OBVIA : L'Observatoire international sur les impacts sociétaux de l'IA et du numérique est rendu possible grâce au soutien du Fonds de recherche du Québec.

Dernière modification le jeudi, 07 novembre 2024
Ninon Louise LePage

Sortie d'une retraite hâtive poussée par mon intérêt pour les défis posés par l'adaptation de l'école aux nouvelles réalités sociales imposées par la présence accrue du numérique. Correspondante locale d'Educavox pour le Canada francophone.