PHI
PHI englobe le Centre PHI, la Fondation PHI pour l’art contemporain et le Studio PHI, des programmes d’artistes en résidence. PHI exploite également une plateforme éditoriale, Antenne [ii]pour échanger avec sa communauté.
Le Centre PHI est une galerie située au Vieux-Montréal qui présente les oeuvres d’artistes contemporains. La programmation éclectique du Centre PHI se situe à l'intersection de l'art, du cinéma, de la musique, du design et de la technologie.
À l’occasion de l'exposition Rêves codés, le Centre PHI a offert de participer à une discussion avec les artistes Marc Da Costa [iii]et Matthew Niederhauser [iv]créateurs des œuvres présentées dans l’exposition Rêves codés qui explore les nouvelles frontières de l’intelligence artificielle (IA) en tant que médium artistique. Sarah Mackenzie [v]directrice du Forum MUTEK [vi]en assurait l’animation. Je n’ai pas assisté à cette rencontre. Le compte-rendu de mon expérience est celui de la perspective d’un naïf individu, donc très personnel.
Tulpamancer
Description
Je reprends ici une partie du texte de présentation de l’exposition du site du Centre PHI :
Tulpamancer est une installation de réalité virtuelle utilisant l'apprentissage automatique. L’expérience façonne une rencontre immersive et onirique avec les souvenirs et les futurs possibles de chaque participant·e.
Assis·e·s devant un terminal informatique oublié dans un entrepôt depuis 1989, les participant·e·s rencontrent d'abord le tulpa à travers une série de questions sur leur propre vie.
Le tulpa [vii]une idée enracinée dans le bouddhisme tibétain mais popularisée par la théoricienne Annie Besant [viii] se réfère à la manifestation physique de la pensée à travers la pratique spirituelle et la méditation.
La rencontre se poursuit ensuite dans un monde préparé spécialement à l’intention de chaque spectateur·trice. Les participant·e·s sont invité·e·s à enfiler un casque de réalité virtuelle et sont guidé·e·s par leur tulpa à travers une série de scènes générées de manière unique, qui évoquent et interrogent les souvenirs de leur propre passé et leurs destins potentiels. Chaque interaction produit ainsi une œuvre unique qui est supprimée à la fin de sa visualisation, ne laissant qu'une résonance dans l'esprit de chaque participant·e.
Mon expérience
Sachant que l’intelligence artificielle se nourrirait de mes réponses à ses questions, je m’étais préparée en m’imaginant un personnage fictif, précaution inutile au vue des questions qui n’avaient de personnel que la description de souvenirs.
La première question me demandait de décrire mon éveil.
J’ai écrit que ma chambre était inondée de soleil et ai fait «retour chariot» pour revenir à la ligne. Or le système a considéré «retour chariot» comme la fin de cette réponse et a continué l’échange par une nouvelle question. Quelques questions plus loin, le système est revenu à la première question qu’il m’a offert de compléter. Le système a donc analysé mes réponses en temps quasi-réel et ayant observé la brièveté de cette première réponse m’a offert de la compléter. Les questions m’ont demandé de décrire ma journée, des moments heureux puisés à même mes souvenirs d’enfance, la dernière personne que j’avais rencontré, quels sont les rêves que j’aimerais vivre et comment j’imaginais ma mort. Il y avait une quantité maximale de caractères acceptés par le système qui coupait court à ma transmission et me posait une nouvelle question.
Puis le système m’a invité à mettre un casque de réalité virtuelle.
TULPA, cette intelligence artificielle qui représente la manifestation physique des pensées exposées par mes descriptions m’a présenté une projection virtuelle de celles-ci. En audio, le système parlait d’une voix féminine, douce, chaleureuse, calme, agréable, m’incitant à la détente, à la confiance et qui interprétait une synthèse des descriptions que j’avais rédigé. Les paysages exposés en visuel s’inspiraient, au début, assez fidèlement de mes descriptions mais vers le milieu semblaient utiliser des images génériques pas particulièrement adaptées à mes descriptions, comme si l’IA était un peu fatiguée.
La conclusion de la présentation m’a choquée. TULPA qui est un robot généré par une intelligence artificielle se présente par ses paroles comme un être conscient, un ami qui sera toujours auprès de moi pour m’accompagner.
À la sortie, on remet au participant un texte généré par l’IA et j’y lis … sache que nos chemins, bien que divergents, restent à jamais enlacés dans la symphonie cosmique, jusqu’à ce que nous nous rencontrions à nouveau ….
Bref, cette intelligence artificielle semble se transformer en entité empathique, quasiment incarnée, séduisante par la douceur de sa voix. Cette expérience provoque chez moi les questions suivantes. D’un côté, je vois facilement comment une telle présence chaleureuse pourrait accompagner amicalement, dans le calme, les êtres humains à la fin de leur vie. D’un autre côté, n’y a-t-il pas un certain danger à généraliser l’usage de tels programmes auprès de clientèles émotivement immatures qui auraient tendances à devenir dépendants de cet être fictif. N’y a-t-il pas danger de l’influence possible de ces IA sur les populations ?
Cette réflexion m’a rappelé une intervention à ALL IN 2024.
AI Risk Repository, une base de données vivante et complète des risques liés à l'IA : une avenue à explorer pour les politiques culturelles ?
Cette conférence a été présentée par Neil Thompson https://www.neil-t.com/, Directeur du projet de recherche FutureTech au laboratoire d’informatique et d’intelligence artificielle du MIT et chercheur principal à l’Initiative du MIT sur l’économie numérique.
Une partie du texte ci-dessous a été généré par la traduction d’informations du site du Répertoire https://airisk.mit.edu/ par Chat GPT.
Le Répertoire des Risques liés à l'IA est une ressource structurée conçue pour aider les chercheurs, les décideurs politiques et d'autres parties prenantes à comprendre et gérer les risques liés à l'IA. Il est composé de trois parties principales :
- Base de données des risques liés à l'IA : Une collection complète de plus de 700 risques identifiés, extraits de 43 cadres existants, avec des références détaillées, y compris des citations et des numéros de page.
La Base de données des risques liés à l'IA relie chaque risque aux informations sources (titre du document, auteurs), aux preuves à l’appui (citations, numéros de page), ainsi qu'à nos taxonomiescausale et par domaine. Vous pouvez la copier sur Google Sheets ou OneDrive. Regardez la vidéo explicative (en anglais). - Taxonomie causale des risques liés à l'IA : Un système de classification qui organise les risques en fonction de leurs causes, permettant de comprendre comment, quand et pourquoi ces risques se produisent.
La Taxonomie causale des risques liés à l'IA classe comment, quand et pourquoi un risque lié à l'IA survient. Vous pouvez explorer cette taxonomie (jusqu'à trois niveaux de profondeur) au site du répertoire. Utilisez la barre de recherche si vous souhaitez explorer comment les risques sont regroupés par cause dans la base de données. Cette recherche effectue des correspondances exactes de texte dans trois champs : « Entité », « Intention » et « Timing ». Elle renvoie des informations pour sept champs : « Référence rapide », « Catégorie de risque », « Sous-catégorie de risque », « Description », « Entité », « Intention » et « Timing ». - Taxonomie des domaines des risques liés à l'IA : Cette classification organise les risques en sept grands domaines, tels que la « Désinformation », et 23 sous-domaines, comme les « Informations fausses ou trompeuses ».Vous pouvez explorer cette taxonomie (jusqu'à quatre niveaux de profondeur) au site du répertoire pour plus de détails et explorer comment les risques sont regroupés par domaine. Cette recherche effectue des correspondances exactes de texte dans deux champs : « Domaine » et « Sous-domaine ».
Par exemple, j’ai effectué quelques recherches en lien avec mon expérience de rencontre avec TULPA. J’ai choisi en premier le domaine : 5 - Human-computer interaction ("interaction homme-machine.») et le sous-domaine 5.1 - Overreliance (surconfiance ou dépendance excessive) et unsafe use (utilisation dangereuse ou usage non sécurisé), puis Exploitation of trust (Exploitation de la confiance) et ai lu :
« Lorsque les personnes interagissent avec des IA utilisant un langage naturel convaincant, elles peuvent commencer à leur attribuer des caractéristiques humaines et à accorder une confiance excessive à leurs capacités (Weidinger et al., 2021, 2022). Les perceptions anthropomorphiques des IA peuvent également encourager les utilisateurs à développer une confiance émotionnelle dans ces systèmes (Hagendorff, 2024), ce qui peut les rendre plus enclins à suivre des suggestions, accepter des conseils et divulguer des informations personnelles (Weidinger et al., 2021, 2022). »
Version française par ChatGPT du texte : When people interact with AIs that use convincing natural language, they may start to perceive them as having human-like attributes and invest undue confidence in their capabilities (Weidinger et al. 2021,2022.) Ahthropomorphic perceptions of AIs may also encourage users to develop emotional trust in the systems (Hagendorff, 2024), which can make users more likely to follow suggestions, accept advice, and disclose personal information (Weidonger et al., 2021, 2022).
Ce qui décrit le malaise que j’ai ressenti suite à ma rencontre avec TULPA.
Le répertoire est un outil essentiel pour évaluer, gérer et atténuer la large gamme de risques posés par les technologies de l'IA.
Comment puis-je utiliser le Répertoire des Risques liés à l'IA ?
Le Répertoire des Risques liés à l'IA fournit :
- Un aperçu accessible du paysage des risques liés à l'IA.
- Une source d'information régulièrement mise à jour sur les nouveaux risques et recherches.
- Un cadre de référence commun pour les chercheurs, développeurs, entreprises, évaluateurs, auditeurs, décideurs politiques et régulateurs.
- Une ressource pour aider à développer des recherches, des programmes d'études, des audits et des politiques.
- Un moyen facile de trouver des risques et des recherches pertinents.
En particulier pour les universitaires, le répertoire est utile :
- Comme base pour développer d'autres classifications (par exemple, les actions à entreprendre pour aborder des types de risques spécifiques ou les acteurs impliqués dans ces risques).
- Pour identifier des domaines sous-explorés dans la recherche sur les risques liés à l'IA.
- Pour développer du matériel éducatif et des programmes de formation.
- Pour aider à valider l'identification de nouveaux risques, encore non documentés.
- Pour comprendre le paysage de la recherche existante.
Nous sommes invités à participer à l’enrichissement du répertoire au lien suivant : https://docs.google.com/forms/d/e/1FAIpQLSde5Uw11whkofXOx7km7fnpr3JC4NhxpSuGnb9D_Plz-0lq5g/viewform
Pour aller plus loin, The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence : https://cdn.prod.website-files.com/669550d38372f33552d2516e/66bc918b580467717e194940_The AI Risk Repository_13_8_2024.pdf . Ceci est un long document de 79 pages avec un guide de lecture en page 2 suite au résumé.
Les risques de l’IA pour l’égalité entre les femmes et les hommes
Dans le domaine des risques, la présentation de Mélanie Julien, du Conseil du statut de la femme dans le cadre de ALL IN 2024 a rappelé à l’auditoire l’avis rendu public en septembre 2023, du Conseil du statut de la femme qui met en relief les risques que des systèmes d’intelligence artificielle reproduisent et accentuent des inégalités entre les femmes et les hommes. https://csf.gouv.qc.ca/wp-content/uploads/Avis_intelligence_artificielle.pdf
Un premier défi relève du fait que les enjeux de reproduction d’inégalités entre les femmes et les hommes sont souvent implicites dans les écrits recensés, notamment lorsque d’autres facteurs que le sexe sont mis à l’avant-scène (ex. : l’origine ethnique, le statut socioéconomique ou l’âge) ou lorsque les préjudices à l’endroit des femmes sont aussi subis par des hommes (ex. : utilisation sans consentement de données personnelles).
Un second défi tient au caractère effréné du développement actuel de l’IA. De fait, les effets sociaux des SIA demeurent peu évalués et peu répertoriés (Conseil jeunesse de Montréal, 2021; Gentelet et Lambert, 2021). Certains écrits recensés font état de points de vue ou d’appréhensions fondés sur l’expertise de spécialistes en éthique, en sociologie, en droit, etc. D’autres se rapportent à des systèmes qui ont pu être modifiés ou abandonnés, comme il en est fait mention dans des médias spécialisés ou généralistes.
Un troisième défi découle du fait que les écrits recensés proviennent majoritairement de régions du monde autres que le Québec, surtout des États-Unis et d’Europe. Des différences sociales, culturelles et politiques commandent une vigilance dans la considération de ces écrits.
Un dernier défi se rapporte à l’exigence de vulgarisation et de simplification d’un domaine hautement spécialisé et auquel est associé un vocabulaire pointu. Le présent avis vise à sensibiliser toute personne concernée par le développement de l’IA, incluant des non-spécialistes. C’est dans cette optique qu’il recourt fréquemment à des exemples pour illustrer les risques de reproduction des inégalités entre les femmes et les hommes.
L’avis comprend quatre sections qui poursuivent respectivement les objectifs suivants :
1) Camper certaines notions de base utiles pour appréhender les risques que l’IA soulève en matière d’égalité entre les sexes, et fournir un aperçu des transformations que l’IA opère dans différents secteurs;
2) Cerner les risques que des SIA reproduisent et amplifient des inégalités entre les femmes et les hommes, en explorant les données d’entraînement, le fonctionnement des SIA, les choix faits par les personnes et organisations concernées ainsi que l’opacité des SIA et le défaut de transparence de leur mise au point;
3) Examiner les moyens de régulation, actuels ou en émergence, de l’IA, de manière à évaluer dans quelle mesure ils permettent de faire face aux risques exposés à la section 2;
4) Formuler des recommandations au gouvernement du Québec en vue de s’assurer que la conception et l’utilisation des SIA prennent en compte les risques qu’ils représentent pour l’égalité entre les femmes et les hommes.
Intelligence artificielle et droit d’auteur: le dilemme canadien
… examiner les moyens de régulation, actuels ou en émergence, de l’IA, de manière à évaluer dans quelle mesure ils permettent de faire face aux risques …demande l’Avis du Statut de la femme. Pour comprendre un peu la complexité de la question à laquelle les législateurs font face dans leur tentative de réguler la croissance des intelligences artificielles je propose de revoir l’enregistrement du troisième évènement du Cercle de lecture de l’Axe Droit, cyberjustice et cybersécurité, un évènement de l’OBVIA [ix]tenu à la faculté de droit de l’Université de Montréal le 4 octobre dernier.
Sous forme de cercle de lecture, MeCaroline Jonnaert a présenté son ouvrage et un répondant, le Pr Georges Azzaria l’a commenté. Caroline Jonnaert est titulaire d’un doctorat en droit de l’Université de Montréal. Sa thèse porte sur le droit d’auteur et l’intelligence artificielle. Elle se spécialise en droit des technologies de l’information, marques de commerce, droit d’auteur, et droit de la publicité et du marketing. Georges Azzaria est le directeur de l’École d’art de l’Université Laval et a auparavant été professeur de propriété intellectuelle et de méthodologie à la Faculté de droit de cette université. Depuis quelques années, il s’intéresse plus particulièrement aux technologies numériques sous l’angle du droit d’auteur et de la régulation juridique.
Me Jonnaert a publié sa thèse en octobre 2022 et Open AI rendu public ChatGPT en novembre 2022. Cet incident est un exemple d’une des difficultés pour le législateur de réguler l’intelligence artificielle. Comme on dit au Québec … C’est construire l’avion en plein vol ! Par l’exemple du droit d’auteur canadien, l’auditeur de l’enregistrement de cette rencontre sera sensibilisé à quelques unes des considérations dont tenir compte le légiste dans la formulation d’une loi ou d’un règlement.
Et en éducation ?
Le domaine de l’éducation était quasiment absent de la rencontre ALL IN 2024. Stephane Côté, responsable du projet Emilia au Collège Sainte-Anne, en indique la cause : l’énorme coût, les millions de dollars nécessaires pour développer des programmes en IA. Monsieur Côté a présenté avec Olivier Blais, cofondateur et VP science de la décision chez Moov AI reconnu comme leader en déploiement de solutions d’intelligence artificielle appliquée au Québec, le projet Émilia - https://emiliasolutions.com/
Le futur de l’éducation.
Leur présentation Les défis de l'IA générative pour l'automatisation des processus : Le parcours et leçons d’Emilia a exposé les étapes de création de l’outil qui a, selon Stéphane Côté, comme fondement le temps consacré à la correction des travaux des élèves qui est un irritant important qui alourdit de façon significative la tâche des enseignant.es. Cette remarque m’a fait sourire, moi de la veille école où je devais rédiger une composition française à chaque fin de semaine et dont l’enseignant nous en remettait la copie corrigée et commentée au milieu de la semaine suivante. Bref de réminiscence et voici ce que propose Emilia.
Regardez la vidéo !
Emilia est en phase de prototypage pour l’instant. Malgré la hâte de partager la plateforme à l’ensemble des écoles du Québec, Emilia est encore à l’étape du développement et demeure un outil interne du Collège Sainte-Anne.
ALL IN 2024
ALL IN est avant tout une rencontre au service des entreprises. ALL IN a comme principal objectif d’orienter ces dernières au sein de cet encore nouvel et insolite univers, peu connu, surprenant, singulier et qu’aucun ne peut ignorer, celui de l’Intelligence Artificielle (IA). En tant que Pays à l’honneur cette année, la France a mis en avant, avec l’assistance de Business France, organisme au service du développement international des entreprises, un écosystème de huit startups en IA et d'entreprises bien établies au Canada comme Alstom, Thales, L'Oréal et OVHcloud qui utilisent déjà l'IA dans leurs opérations quotidiennes, certaines travaillant actuellement avec des fournisseurs canadiens de services et produits en IA.
« Le Canada est fier d'accueillir la France en tant que pays d'honneur à ALL IN, un événement important sur l'intelligence artificielle. Nos pays sont tous deux à l'avant- garde du développement de l'IA. Je suis heureux d'assister à la progression de notre partenariat sur la commercialisation et l'adoption éthiques de l'intelligence artificielle pour stimuler la productivité et l'efficacité. J'ai hâte d'être témoin de l'avenir de notre collaboration et de nos efforts continus visant son développement. »L'honorable François-Philippe Champagne, ministre de l'Innovation, des Sciences et de l'Industrie, gouvernement du Canada
De retour au Centre PHI … The Golden Key
Je me suis présentée bien ignare à la seconde partie de l’exposition Rêves codés. Je suis partiellement responsable de mon ignorance car je n’ai pas consulté attentivement les informations disponibles au site de PHI par contre ce n’est qu’en préparant ce texte que je fus informée de l’existence du conte The Golden Key [x] Ma candeur m’a été partiellement utile et c’est par observation et essais et erreurs que j’ai compris comment l’IA intégrait ou non les propositions des participants au déroulement de l’histoire.
Voici ce qu’écrit le site du Centre PHI relativement à cette exposition interactive.
The Golden Key est une installation immersive qui invite le public à contribuer à un conte folklorique sans fin généré par une intelligence artificielle.
L'œuvre amène les spectateur·trice·s à entrer en contact avec les rêves mythologiques d'une IA, alors que celle-ci écrit et visualise une histoire sans fin à travers trois grands écrans de projections. L'IA a été formée à partir de dizaines de milliers de contes folkloriques du monde entier, constituant un ensemble de données composé de fragments narratifs qui résonnent avec nos histoires et préoccupations les plus fondamentales. Au fur et à mesure que l’histoire se déroule, une progression infinie de récits, de visions et de sons défilent sous les yeux du public, qui est invité à jouer un rôle majeur pour façonner activement la narration de cette histoire générée et explorer les structures cachées derrière la prétendue magie de l’IA.
En combinant les commentaires du public avec un modèle d'intelligence artificielle formé à partir de dizaines de milliers de contes populaires du monde entier, The Golden Key cherche à donner aux visiteur·euse·s la possibilité de comprendre le fonctionnement de ces technologies émergentes et le pouvoir de façonner collectivement de nouveaux récits en imaginant ensemble des avenirs alternatifs.
Mes commentaires
1 - Les textes écrits et les projections d’images ne correspondent qu’occasionnellement.
2 - Les histoires racontées par l’IA sont un peu lyriques et même moralisatrices (goody, goody) selon ma perception, alors que les contes classiques sont plutôt malveillants : méchantes sorcières, loup qui mange la grand-mère, enfants abandonnés dans les bois par leurs parents, etc.
3 - Il y avait deux ordinateurs à la disposition des visiteurs. Je ne savais pas pourquoi et comment les utiliser et interagir avec l’IA. Je ne l’ai compris qu’au bout d’un certain temps. J’ai écrit parfois un seul ou quelques mots et j’ai pu lire ces mots incorporés au texte d’une histoire quelques minutes plus tard. Par contre Elvis Presley, The King est revenu n’a pas été retenu par l’IA même plusieurs minutes après avoir proposé ce texte. Faut-il que les mots et les textes proposés demeurent dans une certain contexte?
4 - L’ordinateur ne permet pas d’écrire plus d’une ligne de texte.
5 - Comme j’ai assisté à la première journée de l’exposition, je suis curieuse de l’évolution des textes présentés suite à la participation de centaines de visiteurs.
6- Le concept me semble riche de potentiel et j’avoue être curieuse de connaître les résultats de ce que je considère être une expérience d’exploitation de l’intelligence artificielle dans un contexte créatif.
J’ai beaucoup aimé ces rencontres interactives avec une intelligence artificielle au point d’en refaire l’expérience pour en comparer les résultats.
Ninon Lepage
[i] PHI - https://phi.ca/fr/a-propos/
[ii] Antenne - https://phi.ca/fr/antenne/
[iii]Marc Da Costa - https://marcdacosta.com/
[iv] Matthew Niederhauser - https://matthewniederhauser.com/
[v] Sarah Mackenzie - https://forum.mutek.org/fr/intervenant-e-s/sarah-mackenzie-1
[vi] Forum MUTEK - https://forum.mutek.org/en/about-mutek-forum
[vii] TULPA -https://fr.wikipedia.org/wiki/Tulpa#:~:text=Un%20Tulpa%20(en%20tib%C3%A9tain%20%E0%BD%A6%E0%BE%A4%E0%BE%B2%E0%BD%B4%E0%BD%A3,manifester%20dans%20le%20monde%20physique.
[viii] Annie Besant - https://fr.wikipedia.org/wiki/Annie_Besant
[ix] OBVIA - https://www.obvia.ca/
[x] The Golden Key - https://en.wikipedia.org/wiki/The_Golden_Key_(MacDonald_book)
Le livre du domaine public. Le texte de l’histoire (en anglais) est disponible en ligne ainsi qu’en format audio https://librivox.org/search?title=The+Golden+Key&author=MacDonald&reader=&keywords=&genre_id=0&status=all&project_type=either&recorded_language=&sort_order=catalog_date&search_page=1&search_form=advanced chez Libri Vox.
Dernière modification le vendredi, 22 novembre 2024