Pour la première fois, des chercheurs et des praticiens du secteur de l’IA, du Québec, du Canada et internationaux, se sont réunis à Montréal dans le cadre d’un colloque scientifique portant exclusivement sur les questions de normativité et d’encadrement de l’intelligence artificielle.
Comment nous assurer que l’humain soit au cœur des développements de l’IA et non à son service ?
Le rapport qui suit est un résumé. Traduire en quelques milliers de mots trois jours de compte-rendu d’études, réflexions et délibérations impose des choix. Vous y lirez ce qui a davantage attiré mon attention, et aussi peut-être une certaine image de mes biais cognitifs. Nul n’y échappe complètement et en toute honnêteté, le désire-t-on toujours. J’avoue avoir fait appel à ChatGPT à l’occasion, parfois pour trouver la terminologie française qui s’applique au discours de présentateurs anglophones ou rédiger la synthèse de certains propos. Je n’ai pas accordé le statut d’auteur au robot conversationnel. Ses textes sont fusionnés aux miens et je suis l’auteure de cet assemblage. J’ai souvent copié partiellement ou entier les textes des diapositives des présentateurs, ce qui est une façon de respecter leur pensée. Si, perdue parmi tous ces mots, je n’ai pas accordé aux auteurs le crédit mérité, j’espère qu’ils me pardonneront. Dans le texte, le sigle «IA» sera utilisé pour désigner «intelligence artificielle». Bonne réflexion au lecteur !
Qu’entend-on par « normativités» ?
C’est aux portails du droit et de la philosophie que Wikipédia traite de normativité et effectivement ce sont principalement des philosophes et des juristes qui ont guidé nos réflexions lors de ce colloque.
La normativité consiste en l'étude des normes ou des principes qui guident le comportement humain et la prise de décision. Il existe plusieurs types de normativité, notamment :
- La normativité morale fait référence aux principes et aux valeurs. Les normes morales se rapportent généralement aux idées de bien et de mal. La première session traitait de l’éthique en regard de l’IA.
- La normativité juridique traite des principes et des règles qui guident la prise de décision juridique. Les normes juridiques sont généralement appliquées par le biais d'institutions et de systèmes juridiques, et les violations des normes juridiques peuvent entraîner des sanctions ou des conséquences juridiques. La deuxième session a exposé la pluralité normative de l’approche juridique en regard de l’IA.
- La normativité sociale fait référence aux règles et attentes non écrites qui régissent les interactions et les comportements sociaux. La troisième session suivie d’un panel public s’ouvrait à une discussion sur les outils de la gouvernance de l’IA.
- La normativité épistémique fait référence aux principes et aux normes qui guident la formation des connaissances et des croyances. Quels sont les enjeux, les problèmes et les défis présentés par les initiatives normatives en matière d’IA demande-t-on à la quatrième session.
Les différents types de normativité reflètent les différents aspects de l'expérience humaine et de la prise de décision et ils guident la façon dont nous devrions nous comporter et interagir dans différents domaines de la vie. Les membres du comité scientifique qui ont planifié le programme du colloque méritent des félicitations pour la progression des présentations. Voyons maintenant ce qu’ont dit les experts.
Session 1 - Un bilan de l’éthique de l’IA : Où en sommes-nous? Que devons-nous espérer?
Animé par :
Jocelyn Maclure, professeur au Département de philosophie de l’Université McGill et titulaire de la Stephen A. Jarislowsky Chair in Human Nature and Technology. Ses recherches concernent principalement l’éthique et la philosophie politique.
Alexis Morin-Martel, étudiant au doctorat en philosophie à McGill. Il travaille principalement sur des questions éthiques en lien au déploiement de l'intelligence artificielle pour la prise de décisions publiques, notamment dans le contexte judiciaire. Il est également détenteur d'un baccalauréat en droit.
Les conférenciers sont :
Annette Zimmermann, professeure adjointe de philosophie à l'Université du Wisconsin-Madison où elle travaille sur l'éthique et les politiques relatives à l'intelligence artificielle, l'apprentissage automatique et les méga-données.
Vincent C. Müller, professeur de philosophie et d'éthique de l'IA et directeur du Center for Philosophy and AI Research (PAIR) à la FAU Erlangen-Nuremberg. Monsieur Müller s'intéresse principalement aux problèmes philosophiques liés à l'intelligence artificielle, tant en éthique qu'en philosophie théorique.
Karina Vold, professeure adjointe à l'Institut d'histoire et de philosophie des sciences et de la technologie (IHPST) de l'Université de Toronto. Elle travaille à l'intersection de la philosophie des sciences cognitives, de la philosophie de la technologie, de l'intelligence artificielle (IA) et de l'éthique appliquée.
Ce sont trois philosophes qui ont présenté ce bilan de l’éthique de l’IA. Il ne faut pas s’en surprendre car comme l’a mentionné madame Vold :
Traditionnellement, l'analyse éthique n'était pas incluse dans la pratique de l'ingénierie et la formation à l’éthique n'était pas au programme de la formation d'ingénieur ou d’informaticien.
Les présentations des conférenciers étant complémentaires, j’ai rédigé un compte-rendu synthèse de cette première session.
L’éthique et l’intelligence artificielle
Il existe plusieurs théories de l’éthique. On a observé récemment trois grands changements aux réflexions sur l’éthique et l’IA.
- L’éthique conséquentialiste : cette théorie met l'accent sur les conséquences des actions, plutôt que sur les principes ou les qualités de caractère de l’individu (ou de l’IA). Les partisans de l'éthique conséquentialiste soutiennent que les actions doivent être jugées en fonction de leurs conséquences, en visant à maximiser le bien-être ou le bonheur pour le plus grand nombre de personnes possibles. Les organisations ont commencé à intégrer des considérations éthiques dans la conception et le déploiement de l'IA pour éviter les conséquences négatives sur les personnes, les communautés et la société dans son ensemble. On reconnaît l'impact social de l’IA ;
- L'éthique du devoir : cette théorie, également appelée déontologie, met l'accent sur le respect des principes éthiques universels, tels que le respect de la dignité humaine, l'équité et la justice. Les partisans de cette théorie soutiennent que certaines actions sont intrinsèquement bonnes ou mauvaises, indépendamment des conséquences qui en découlent. Il est de plus en plus reconnu que la diversité et l'inclusion sont essentielles dans la conception de l'IA pour éviter les biais discriminatoires. On admet l’importance de la diversité et de l'inclusion dans la conception de l'IA ;
- L'éthique de la vertu : cette théorie met l'accent sur le développement personnel et moral de l'individu, en se concentrant sur les qualités de caractère telles que l'honnêteté, la bienveillance et la sagesse. Les partisans de l'éthique de la vertu soutiennent que la moralité découle de la pratique régulière de ces qualités. Les efforts pour développer une IA responsable se sont intensifiés.
L’éthique, une métacognition normative ?
Du point de vue «évaluativiste», considérer l’éthique comme métacognition normative peut aider à clarifier des valeurs mais aussi susciter des débats sur la façon dont on peut parvenir à un consensus sur des normes.
L'éthique n'est-elle qu'une métacognition normative? Comparons l’intelligence instrumentale et l’intelligence générale avec métacognition.
Le terme "intelligence instrumentale» fait référence à une forme d'intelligence qui est liée à la capacité de résoudre des problèmes pratiques ou de réaliser des tâches concrètes dans la vie quotidienne. L’intelligence instrumentale est la manière efficace de résoudre un problème.
L’intelligence générale avec métacognition se réfère à une combinaison de compétences cognitives globales avec la capacité de réfléchir sur ses propres processus de pensée. Cette combinaison peut être particulièrement utile dans des contextes complexes ou incertains, où il est important d'avoir une compréhension claire de ses propres processus de pensée pour prendre des décisions éclairées.
La métacognition normative est un concept qui se rapporte à la capacité de juger de la qualité de son propre processus de réflexion et de prise de décision, la capacité de comprendre si l'on suit les bonnes étapes pour arriver à une conclusion correcte et orienter nos actions en fonction de cette réflexion.
Les biais
Un biais cognitif est une tendance à penser de manière subjective ou déformée, qui peut conduire à des erreurs de jugement ou à des interprétations inexactes de l'information. Les biais cognitifs sont des distorsions systématiques dans la manière dont nous pensons, qui peuvent être inconscientes et qui peuvent affecter notre prise de décision, notre perception, notre mémoire et notre compréhension du monde qui nous entoure.
Il existe de nombreux types de biais cognitifs, tels que :
- Le biais de confirmation : la tendance à rechercher, interpréter ou rappeler des informations qui confirment nos croyances ou hypothèses, tout en ignorant ou minimisant les informations contradictoires ;
- Le biais d'ancrage : la tendance à s'appuyer sur la première information reçue lors de la prise de décision, même si cette information est inexacte ou incomplète ;
- Le biais d'attribution : la tendance à attribuer les causes de notre propre comportement à des facteurs externes, tandis que nous attribuons les causes du comportement des autres à leur personnalité ou à leur caractère ;
- L'effet de faux consensus : la tendance à surestimer la fréquence avec laquelle les autres partagent nos opinions, attitudes ou comportements.
Un biais statistique est une erreur systématique qui se produit dans la collecte, l'analyse ou l'interprétation des données statistiques. Un biais statistique peut se produire à n'importe quelle étape du processus de collecte et d'analyse de données, et peut conduire à des conclusions erronées ou trompeuses.
Il existe différents types de biais statistiques, notamment :
- Le biais de sélection : se produit lorsqu'une partie de la population est exclue ou incluse de manière disproportionnée dans une étude, ce qui peut conduire à des résultats non représentatifs de l'ensemble de la population ;
- Le biais de réponse : se produit lorsque les répondants d'une enquête ou d'une étude ne répondent pas de manière honnête ou précise aux questions posées, ce qui peut biaiser les résultats ;
- Le biais de mesure : se produit lorsque les instruments de mesure utilisés pour collecter des données ne sont pas fiables ou valides, ce qui peut conduire à des données inexactes ;
- Le biais de confirmation : se produit lorsqu'une personne recherche ou interprète sélectivement les données de manière à confirmer ses propres hypothèses ou croyances, en ignorant ou minimisant les données contradictoires.
Les biais statistiques peuvent avoir des conséquences importantes dans la prise de décision et dans les politiques publiques. Il est donc important d'être conscient des biais statistiques possibles et de prendre des mesures pour les éviter ou les réduire, en utilisant des méthodes de collecte et d'analyse de données rigoureuses et en faisant preuve de prudence dans l'interprétation des résultats statistiques.
Un jugement injuste produit une action injuste
Soyons attentif au fait qu’on explique couramment l'injustice algorithmique selon la thèse des «données en tant que miroir social». En réalité, il est plus approprié de considérer les données comme une loupe que l’intelligence artificielle risque d’amplifier et simultanément obscurcir les structures sociales injustes. Il est naïf de croire que les technologies corrigeront les failles de la société. Il est préférable de refuser d’utiliser certaines technologies, par exemple comme les policiers de San Francisco qui refusent d’utiliser la reconnaissance faciale, même si ces technologies ont été conçues soi-disant pour améliorer la sécurité sociale.
Quelle doit être notre attitude face aux technologies ? Il n'y a pas de principe normatif universel qui aide à répondre à cette question. Nous devons porter des jugements spécifiques au contexte et au domaine pour déterminer si entre l'optimisation ou le non-déploiement des technologies laquelle de ces actions servirait mieux la justice. Être précis sur la valeur et le but du développement d’une intelligence artificielle dans un domaine donné est souvent plus important moralement et politiquement.
Principes pouvant régir une IA éthique
Plus de 75 listes de principes directeurs sur l'Al ont été publiées au cours des cinq dernières années par les gouvernements, les entreprises privées, les instituts de recherche ou des organisations du secteur public.
Une méta-analyse rapporte que la plupart de ces principes convergent vers un petit ensemble similaire aux principes traditionnels de la bioéthique : bienfaisance, non-malfaisance, autonomie, justice, avec l’explicabilité [ii]
Les lois d'Asimov de la robotique de leur côté étaient :
1 - Un robot ne peut blesser un être humain ou, par inaction, permettre à un être humain de se blesser.
2 - Un robot doit obéir à tous les ordres qui lui sont donnés par des êtres humains, sauf si ces ordres entrent en conflit avec (1).
3 - Un robot doit protéger sa propre existence tant que cette protection n'entre pas en conflit avec (1) ou (2)
Éthique appliquée : comment concilier des valeurs qui entrent en conflit ?
- Les valeurs sociales de justice et de solidarité contre la précision et la personnalisation des systèmes technologiques ;
- Les valeurs individuelles d’autonomie informationnelle et de réalisation de soi contre la qualité, l’efficacité et la commodité des systèmes d’intelligence artificielle.
Les compromis seront différents selon les secteurs où s’applique l’IA : la finance, la santé, l’éducation, le transport, la sécurité sociale, le commerce.
L'innovation responsable
Un domaine de recherche en plein essor qui explore les moyens de "prendre soin de l'avenir grâce à la gestion collective de la science et de l'innovation dans le présent». Le processus de conception responsable doit intégrer des méthodes fondées sur des preuves pour évaluer l'impact sur le bien-être humain et concevoir en fonction de celui-ci.
Session 2 - La pluralité normative de l’approche juridique
Animé par :
Céline Castets-Renard, titulaire de la Chaire de recherche sur l’intelligence artificielle responsable à l'échelle mondiale, chercheure régulière au Centre de recherche en droit, technologie et société de l’Université d’Ottawa, et professeure titulaire à la Section de droit civil de la Faculté de droit. Ses travaux portent sur le droit et la régulation du numérique dans des domaines variés de droit privé allant de l’impact de la technologie sur les contrats et la responsabilité civile à la propriété intellectuelle, à la protection des données personnelles, au commerce électronique, …
Blanche Daban, Titulaire d’un Master 2 en Droit et contentieux de l’Union européenne, doctorante en cotutelle entre l’Université d’Ottawa et celle de Paris Panthéon-Assas sous la direction des Professeures Céline Castets-Renard et Anastasia Iliopoulou-Pénot.
Les conférenciers sont :
Georges Azzaria, directeur de l’École d’art de l’Université Laval. Il a auparavant été professeur de propriété intellectuelle à cette même université et ses recherches ont porté sur les rapports entre l’art et le droit d’auteur, sur le statut socio-économique des artistes.
Pierre Trudel, professeur au Centre de recherche en droit public de la Faculté de droit de l’Université de Montréal. Il a publié plusieurs ouvrages sur le droit de l’information notamment Droit de la radio et de la télévision, Droit du cyberespace et Droits, libertés et risques des médias.
Anne-Sophie Hulin, professeure adjointe à la Faculté de droit de l’Université de Sherbrooke et titulaire de la Chaire « Justice sociale & Intelligence artificielle » ainsi que professeure invitée à l’Université Laval. Au prisme de son expertise en droit privé et comparé, Anne-Sophie conduit des recherches sur les modèles juridiques de gouvernance des données numériques. À ce titre, elle collabore avec plusieurs institutions québécoises et européennes.
Caroline Lequesne-Roth, maîtresse de conférences en droit public (HDR) à l’Université Côte d’Azur (Nice) où elle a contribué à fonder le programme DL4T qui réunit juristes, data scientists et informaticiens autour des enjeux des technologies profondes. Directrice de la Fablex (clinique du droit de l’intelligence artificielle) de 2018 à 2020, elle est aujourd’hui responsable du Master II Droit algorithmique et gouvernance des données.
J’ai choisi pour le compte-rendu de la deuxième session de présenter principalement quelques extraits du projet de Loi C-27 du Canada et de la Proposition de règlement de la Commission européenne dite « Al act » sans comparer des deux.
Quelques définitions
Source : Projet de Loi C-27, Loi sur l'intelligence artificielle et les données (LIAD) du Canada
Un système d'intelligence artificielle est un « système technologique qui, de manière autonome ou partiellement autonome, traite des données liées à l'activité humaine par l'utilisation d'algorithmes génétiques, de réseaux neuronaux, d'apprentissage automatique ou d'autres techniques pour générer du contenu, faire des prédictions ou des recommandations ou prendre des décisions ». Art. 2 LIAD
Une personne responsable de l’IA est celle qui, dans le cadre des échanges ou du commerce internationaux ou interprovinciaux, le conçoit, le développe, le rend disponible ou en gère l’exploitation. Art. 5(2) LIAD
Un résultat biaisé est du « contenu généré, prédiction, ou recommandation faite ou décision prise par un système d'intelligence artificielle qui défavorisent, directement un individu sur le fondement d'un ou plusieurs motifs de distinction illicite prévus à l'article 3 de la Loi canadienne sur les droits de la personne, ou de leur effet combiné ». Art. 5(1) LIAD.
Obligation d'évaluer les systèmes
La LIAD prévoit qu'un responsable d'un système d'IA doit évaluer si ce système peut être considéré comme un système à incidence élevée en vertu des règlements Art. 7 LIAD et tenir des registres des raisons justifiant son évaluation Art. 10(1)LIAD
S'il s'agit d'un système à incidence élevée …
...le responsable doit établir des mesures pour identifier, évaluer et atténuer les risques de préjudice ou de résultat biaisé qui pourraient résulter de l'utilisation du système Art. 8 LIAD, et établir des mesures pour contrôler le respect de ces mesures d'atténuation et leur efficacité Art. 9 LIAD. Le responsable doit aussi tenir des registres de ces mesures.
Encadrement des usages de données anonymisées
Une personne exerçant une activité réglementée et qui (i) traite ou (ii) met à disposition pour utilisation des données anonymisées dans le cadre de cette activité doit établir des mesures concernant : (a) la manière dont les données sont rendues anonymisées et (b) l'utilisation ou la gestion des données anonymes. art. 6 LIAD
Quelles pluralités ?
(1) Diversité dans la nature et les sources des normes juridiques : normes éthiques, scientifiques et techniques ;
(2) Gradation dans la vigueur normative : normes souples et normes dures ;
(3) Hétérogénéité du champ d'application matériel des règles suivant le domaine (normes générales et normes sectorielles) ou les acteurs visés (acteurs privés, publics / partages des compétences).
Droit de l'Union européenne (Proposition de règlement de la Commission européenne dite « Al act », avril 2021) : SIA à « hauts risques », SIA à « incidence élevée »
Des normes légales qui intègrent des normes éthiques :
Non-Discrimination, biais et erreurs dans les données : art. 10 (données et gouvernance)
« 3. Les jeux de données d'entraînement, de validation et de test sont pertinents, représentatifs, exempts d'erreurs et complets. Ils possèdent les propriétés statistiques appropriées, y compris, le cas échéant, en ce qui concerne les personnes ou groupes de personnes à l'égard desquels le système Non-Discrimination d'lA à haut risque est destiné à être utilisé ».
« 4.Les jeux de données d'entraînement, de validation et de test tiennent compte, dans la mesure requise par la destination, des caractéristiques ou éléments propres au contexte géographique, comportemental ou fonctionnel spécifique dans lequel le système d'IA à haut risque est destiné à être utilisé ».
Contrôle humain (art. 14)
1. La conception et le développement des systèmes d'lA à haut risque permettent, notamment au moyen d'interfaces homme-machine appropriées, un contrôle effectif par des personnes physiques pendant la période d'utilisation du système d'lA.
2. Le contrôle humain vise à prévenir ou à réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux.
Contrôle humain : contrôle des mesures d'atténuation (art. 9)
Le responsable d'un système à incidence élevée établit, conformément aux règlements, des mesures visant à contrôler le respect des mesures d'atténuation visées à l'article 8 et à évaluer leur efficacité.
Transparence et fourniture d'informations aux utilisateurs (art. 13)
1.La conception et le développement des systèmes d'lA à haut risque sont tels que le fonctionnement de ces systèmes est suffisamment transparent pour permettre aux utilisateurs d'interpréter les résultats du système et de l'utiliser de manière appropriée.
Non-Discrimination, biais dans les données
Mesures relatives aux risques (art. 8): Le responsable d'un système à incidence élevée établit, conformément aux règlements, des mesures visant à cerner, évaluer et atténuer les risques de préjudice ou de résultats biaisés que pourrait entraîner l'utilisation du système d'intelligence artificielle.
Définition « résultat biaisé » (art. 5) Contenu généré, prédiction ou recommandation faite ou décision prise par un système d'intelligence artificielle qui défavorisent, directement ou indirectement et sans justification, un individu sur le fondement d'un ou plusieurs motifs de distinction illicite prévus à l'article 3 de la Loi canadienne sur les droits de la personne, ou de leur effet combiné. Sont exclus le contenu, la prédiction, la recommandation et la décision qui sont destinés à supprimer, diminuer ou prévenir les désavantages que subit ou subira vraisemblablement un groupe d'individus pour des motifs fondés, directement ou indirectement, sur un motif de distinction illicite et qui ont pour effet de le faire.
Publication de la description : système rendu disponible
La personne qui rend disponible un système à incidence élevée publie, sur un site Web accessible au public, selon toute modalité fixée par règlement, une description, en langage clair, du système qui prévoit, notamment, les éléments suivants :
a) l'utilisation visée;
b) le contenu qu'il est censé générer, les prédictions ou recommandations qu’il est censé faire ou les décisions qu'il est censé prendre ;
c) les mesures d'atténuation établies à son égard au titre de l'article 8
d) tout autre renseignement prévu par règlement.
Publication de la description : gestion de l'exploitation du système
La personne qui gère l'exploitation d'un système à incidence élevée publie, sur un site Web accessible au public, selon toute modalité fixée par règlement, une description, en langage clair, du système qui prévoit, notamment, les éléments suivants:
a) l'utilisation qui en est faite ;
b) le contenu qu'il génère, les prédictions ou recommandations qu'il fait ou les décisions qu'il prend ;
c) les mesures d'atténuation établies à son égard au titre de l'article 8 ;
d) tout autre renseignement prévu par règlement.
Données et gouvernance des données (art. 10) / Obligations fondées sur les science des données
Les jeux de données d'entraînement, de validation et de test sont assujettis à des pratiques appropriées en matière de gouvernance et de gestion des données. Ces pratiques concernent en particulier :
(a) les choix de conception pertinents ;
(b) la collecte de données ;
(c) les opérations de traitement pertinentes pour la préparation des données, telles que l'annotation, l'étiquetage, le nettoyage, l'enrichissement et l’agrégation ;
(d) la formulation d'hypothèses pertinentes, notamment en ce qui concerne les informations que les données sont censées mesurer et représenter ;
(e) une évaluation préalable de la disponibilité, de la quantité et de l'adéquation des jeux de données nécessaires ;
(f) un examen permettant de repérer d'éventuels biais ;
(g) la détection d'éventuelles lacunes ou déficiences dans les données, et la manière dont ces lacunes ou déficiences peuvent être comblées.
Les comparaisons sont difficiles entre le projet canadien et la proposition de la Communauté européenne à cause de certains facteurs juridiques, dont le degré de maturité des législations :
- Les traditions et systèmes juridiques diffèrent.
- Les facteurs économiques et politiques, entre autre la volonté d'attirer les talents et de stimuler l’innovation.
- Les facteurs géopolitiques comme la proximité canadienne des États-Unis et de la technologie qui inonde le monde entier.
- La complexité et le foisonnement normatif pour encadrer des projets complexes.
Peut-être l'éthique plus que la technique est-elle présente dans le projet canadien.
L'État-providence numérique et l’IA
L'État-providence numérique est soit déjà une réalité, soit en émergence dans de nombreux pays du monde.
Dans ces États, les systèmes de protection et d'assistance sociale reposent de plus en plus sur des données et des technologies numériques qui sont utilisées pour automatiser, prévoir, identifier, surveiller, détecter, cibler et punir. Ce rapport reconnaît les attraits irrésistibles pour les gouvernements d'aller dans cette direction, mais avertit qu'il existe un risque grave de tomber comme un zombie dans une dystopie numérique du bien-être.
Aux Pays-Bas, une décision judiciaire historique montre que la technologie utilisée par les pouvoirs publics pour lutter plus « efficacement » contre les fraudes commises contre l'État providence peut engendrer de l'exclusion injustifiée, de la discrimination et de la stigmatisation.
Le droit d’auteur
La Cour a maintes fois souligné que la neutralité technologique constitue un principe fondamental du droit en matière de droit d'auteur, lequel vise « [1J'application uniforme de la Loi sur le droit d'auteur peu importe le support ou son degré d'avancement technologique » [...]. La neutralité technologique exige « que la Loi sur le droit d'auteur s'applique uniformément aux supports traditionnels et aux supports plus avancés sur le plan technologique »
Contrôle thématique
Clearview AI est une entreprise américaine spécialisée dans la reconnaissance faciale. Elle fournit un logiciel basé sur une technologie qu'elle développe permettant de rechercher un visage parmi une base de données de plus de vingt milliards d'images, obtenues via web scraping sur internet et notamment sur les réseaux sociaux. Censé n'être commercialisé qu'aux forces de l'ordre pour résoudre des affaires criminelles, diverses enquêtes ont révélé depuis 2020 que l'usage de ce logiciel était bien plus vaste, suscitant plusieurs controverses notamment autour de la menace que l'entreprise fait peser sur la vie privée.
Session 3 - Gouvernance, gouvernement et gouvernementalité de et par l’IA
Animé par :
Marc-Antoine Dilhac, est professeur au Département de philosophie de l’Université de Montréal. Il est titulaire de la Chaire de Recherche du Canada en Éthique publique et théorie politique et co-directeur de l’axe Éthique et Politique du Centre de Recherche en Éthique. Ses intérêts de recherche se situent principalement en éthique, en philosophie politique et en philosophie du droit. Il a également initié le projet de la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle.
Les conférenciers sont :
Thierry Ménissier, Professeur de philosophie politique à l’Université Grenoble Alpes et membre de l’Institut de Philosophie de Grenoble (IPhiG) est responsable scientifique de la chaire « éthique & IA » au sein de l’institut multidisciplinaire en intelligence artificielle de Grenoble (MIAI, ANR PIA, 2019-2023). Ses travaux concernent l’éthique des organisations et la dynamique de l’innovation dans le contexte des transitions, et interrogent de quelle manière l'usage des technologies modifie les concepts hérités de la philosophie éthico-politique moderne.
La question de Thierry Ménissier : le gouvernement de l’IA, une question de confiance.
Le déploiement contemporain de l’lA repose sur certaines formes de confiance envers les machines et leurs concepteurs. La chaire «éthique et IA» dont il est le responsable scientifique vise à développer une compréhension philosophique de l’Intelligence Artificielle et à
« Faire dialoguer l'informatique-robotique, la philosophie et les sciences humaines et sociales en vue de la compréhension des enjeux psycho-sociaux, moraux et politiques du déploiement de l'A, ainsi que la détermination de règles éthiques en vue de solutions compatibles avec les valeurs de la démocratie.»
Les défis scientifiques pour y parvenir sont nombreux. Quelles sont les procédures, les règles et les valeurs les plus pertinentes tant pour la conception que pour les usages de l'IA ? Quels types de société/d'humanité promeut-on avec les technologies l’IA ? Quel type de société est “promu” par l’IA à travers les diverses activités que celle-ci régit déjà et organisera demain ? Quelle est la bonne perspective pour déterminer l'IA de manière juste et démocratique? S'il s'avère que la confiance dans l’lA engendre une autorité telle que l'autonomie humaine est mise en péril, comment concevoir autrement les SIA?
Voici selon Menissier «Les quatre éthiques de l’IA», (un ouvrage à paraître) :
1 - Éthique informatique (Computer ethics)
- Conception des systèmes d'IA (SIA) : informaticiens
2 - Éthique artificielle (Artificial/algorithmic/robotic ethics)
- Conception, programmation & usages des machines intelligentes autonomes :
roboticiens, usagers
3 - Éthique du numérique & de la donnée (Digital & data ethics)
- Conception et usage des plateformes dans la dynamique de l'innovation de
l'économie numérique : acteurs économiques, usagers - Création et gestion des données : usagers, pouvoirs publics, acteurs
économiques
4 - Éthique des usages de l'A (UX Al ethics)
- Relations entre les SIA et leur sens / valeurs en vigueur dans une société :
philosophes, usagers/citoyen.nes, pouvoirs publics - Codesign, participation, implication des parties prenantes
De nombreux systèmes techniques plus ou moins autonomes ne doivent-ils pas dès aujourd'hui :
- être envisagés comme les auteurs de leur action?
- être analysés en fonction du fait qu'ils tendent à devenir les auteurs des nôtres, sans même prendre une forme humaine ?
La perspective de l'UX Al ethics : favoriser le co-design
- Impliquer dans la démarche :
Les concepteurs des dispositifs sociotechniques
Les « vrais » prescripteurs et usagers
Les social scientist : économie, sociologie, psychologie sociale, anthropologie, science politique, philosophie
- Cette démarche est évaluative :
Co-évaluation des principes et valeurs
Ces principes et valeurs : polysémiques, contradictoires entre eux et problématiques
Pour un dissensus favorable à l'expression de la pluralité des parties prenantes et à la variété des intérêts
Politiser les questions d'éthique de l’A, pour une évaluation citoyenne (participative et délibérative) de la valeur démocratique des technologies procéder à des évaluations par l’expérimentation.
Politiser les questions d'éthique de l’A en regard d'une clarification des théories de la justice appropriées pour les sociétés innovantes (Ménissier 2018). Quels sens concrets donner à la fairness entendue comme valeur cardinale des sociétés démocratiques?
Jean-Gabriel Ganascia est Ingénieur, physicien et philosophe de formation. Il s’est tourné très tôt vers l'informatique et l'intelligence artificielle. Il est professeur d'informatique à Sorbonne Université depuis 1988, et poursuit ses recherches au LIP6 où il dirige l'équipe ACASA. Spécialiste de l'intelligence artificielle (EurAI Fellow), du machine learning et du data mining, ses recherches actuelles portent sur les humanités numériques, l'éthique computationnelle et l'éthique des technologies de l'information et de la communication. Il est membre du CNPEN (Comité National Pilote d'Éthique du Numérique).
Sans doute, l'égalité des biens est juste mais...
Ne pouvant faire qu'il soit forcé d'obéir à la justice, on a fait qu'il soit juste d'obéir à la force. Ne pouvant fortifier la justice, on a justifié la force afin que le juste et le fort fussent ensemble et que la paix fût, qui est le souverain bien.
Pensées, Raisons des effets 76
C’est par cette pensée de Pascal que Jean-Gabriel Ganascia a débuté la présentation de son questionnement sur la normativité de l’IA et l’une des questions : «Comment modérer 500 millions de tweets par jour?» présente bien l’étendu du problème. Quelques pistes !
Ajout de prescriptions aux machines :
- Respect de la justice
- Protection de la vie privée
- Assurance de sécurité
- Transparence
- Préservation de l'autonomie humaine
- Absence de biais
Embarquer la morale dans les algorithmes. Éthique «by design» dès la conception, délibérément dont voici quelques critères :
- Recueil du consentement éclairé (RGPD)
- Mesures de protection de la vie privée
- Mesures de non réidentification
- Collecte de données proportionnée au but
- Réduction des biais cognitifs : qualité des données
- Réduction des biais de sélection : représentativité des données
- Mesures pour assurer la séparation des données
- Mesures de contrôle des données manquantes
- Mesures d'identification et élimination des biais dans l'algorithme
- Prise en compte du risque de cyber-attaques
- Mesures de traçabilité
- Mesures d'explicabilité
- Transparence de l'algorithme, du modèle
- Voies de recours / réparation
- Critères d'utilisabilité
- Mesures de non-discrimination/équité
- Mesures de reproductibilité
- Mesures pour l'audit
- Critère de label éthique lA
- Mesures pour le contrôle humain
- Analyse d'impact
- Choix de l'algorithme d'apprentissage en adéquation avec la finalité
- Participation des parties prenantes
- Conduite en cas d'erreur et responsabilité
- Amélioration de la qualité et surveillance
- Analyse des risques
Éthique computationnelle des algorithmes
- Programmation des prescriptions morales
- Conception d'agents artificiels qui agissent non « par devoir », mais « en conformité » avec les règles du devoir
S'assurer de la validité et de la fiabilité d'un programme dans le cas de l’IA fondé sur l’apprentissage où il n’y a pas de spécifications formelles, donc pas de preuve, mais des exemples étiquetés par des tests systématiques.
Et voici ses suggestions pour établir (rétablir) la confiance sociale
1. Comités d'éthique externes
Avec des représentants de l'entreprise
Mais comprenant aussi des personnalités externes
2. Comités d'éthique internes, avec compétences technologiques
Mise en œuvre des recommandations faites par les comités d'éthique externes
3. Certification externe par des instances indépendantes
Permet d'assurer que les recommandations faites par les comités d'éthique externes et mise en œuvre par les comités internes soient mises en œuvre
4. Vigilance
Suivi des usages, des mésusages et des modes d’appropriation
Session 4 - Quels enjeux, problèmes et défis avec les initiatives normatives en matière d’IA?
Animé par
Allison Marchildon, professeure titulaire au Département de philosophie et d’éthique appliquée de l’Université de Sherbrooke. Ses recherches portent notamment sur les liens entre éthique, pouvoir et responsabilité dans la sphère économique. Elle s’intéresse entres autres à la notion de responsabilité sociale des entreprises, de même qu’au mouvement du commerce équitable au sein duquel elle observe les formes que prennent la certification éthique et la gouvernance éthique, ainsi que leurs effets sur l’empowerment des petit.e.s producteur.trice.s.
Les conférenciers sont :
Luke Stark est professeur adjoint à la Faculté d'études de l'information et des médias de l'Université Western à London, en Ontario. Il travaille sur les impacts historiques, sociaux et éthiques de l'informatique et des technologies de l'IA et ses écrits ont été publié dans The Information Society, Social Studies of Science et New Media & Society, Slate, The Globe and Mail et The Boston Globe. Luke a été chercheur postdoctoral en éthique de l'IA chez Microsoft Research et boursier postdoctoral en sociologie au Dartmouth College.
Pieter Verdegem enseigne en technologie et société à la Westminster School of Media and Communication et membre de CAMRI (l'Institut de recherche sur la communication et les médias). Ses recherches portent sur l'économie politique des médias et de la communication et sur l'impact des technologies numériques sur la société. Il est Senior Fellow de l'Académie de l'enseignement supérieur (SFHEA) et enseigne au premier cycle et au troisième cycle. Les présentations de Pieter Verdegen et Luke Stark m’ont semblé complémentaires.
La contribution de l'économie politique aux critiques de l’IA et les approches de gouvernance pour l’IA : des codes d'éthique à l’inférence.
L'économie politique critique soutient qu'il est crucial d'examiner le pouvoir et diffère des approches économiques dominantes parce qu'elle est holistique, historique, va au-delà de l'efficacité technique pour résoudre les problèmes de justice et de morale.
Le pouvoir économique : le pouvoir de décider qui bénéficie de l’Al semble être principalement concentré autour du pouvoir économique dominé par les GAFAM et BAT grâce à la concentration de l'accès aux données, de la capacité de calcul et du talent humain. La centralisation économique est la conséquence de cette concentration : «The winner takes it all».
Le pouvoir symbolique : l'idéologie de l’IA et les limites de l’éthique
- Servir les intérêts des groupes puissants de la société
- L’IA en tant qu'idéologie hégémonique est utilisé pour maintenir les structures du capitalisme et empêcher d'envisager des alternatives viables
- Les limites des initiatives éthiques IA :
Qui est impliqué dans le processus - l’influence corporative
La rapidité du développement technologique 'Lavage éthique'
- Comment passer de l'éthique de l'IA aux politiques ?
Le pouvoir social, mobiliser les gens pour une action collective coopérative et volontaire pour une démocratisation radicale d'IA :
- IA devrait être accessible à tous
- IA devrait représenter tout le monde
- IA devrait être bénéfique pour tout le monde
- Comment faisons-nous cela?
- Changer les discours sur IA
- Créer un mouvement et se mobiliser pour une démocratisation radicale d'IA
Proposition de quelques mécanismes de la gouvernance de l’IA :
- Mécanismes techniques
- Codes d'éthique/déclarations de principe
- Certifications volontaires
- Lois et règlements
- Principes des droits de l’homme
- Sécurité
- Activisme et mouvements sociaux
Pouvons-nous réglementer les catégories d'inférence dans les systèmes d'IA?
Le « fond moral » de l'IA présente une vision déterministe de la société mieux abordée par certains types d'expertise individualisée, axée sur le profit, technique et de conception, dans laquelle la classification humaine est tolérée et célébrée.
Bilel Benbouzid est Maître de Conférences en Sociologie à l’Université Gustave Eiffel. Après une formation d'ingénieur des travaux publics de l'État, il soutient une thèse de doctorat en sociologie des sciences sur les technologies de lutte contre le crime. Après sa thèse, il conduit une recherche sur la police prédictive tout en orientant progressivement ses travaux vers les sciences sociales computationnelles. Il s'intéresse aujourd'hui plus généralement aux questions relatives à la régulation de l’intelligence artificielle.
Quatre tensions normatives dans la régulation de l’IA et le problème du contrôle non pas d'IA, mais de son développement politique
Le texte ci-dessus est une copie en français des diapositives de monsieur Benbouzid.
Les quatre domaines des tensions normatives :
1 - Le domaine des discours dystopiques, en partie liés au transhumanisme, considère l’IA comme une super-intelligence. La question : comment maîtriser l'intelligence artificielle si sa croissance est explosive ?
2 - Le domaine des scientifiques de premier plan appelle à une recherche responsable et considère l’IA comme un agent intelligent dans un monde ouvert. La question : comment pousser la recherche à ses limites sans mettre en danger la sécurité publique ?
3- Le domaine de la critique sociale considère le système socio-technique de l’IA. La question : comment contrôler la domination des "infrastructures techniques" et la"puissance" de la machine?
4 - Le domaine du régulateur, La Commission européenne par exemple considère l’IA comme segment technico-économique. La question : comment "l'évaluation des risques et de la conformité" peut-elle vérifier la sécurité des produits avec les exigences des normes et réglementations techniques applicables ?
Comment garantir les droits fondamentaux et la démocratie ?
Pour l’instant, la Proposition de règlement de la Commission européenne dite « Al act », avril 2021) considère les SIA à « hauts risques » et les SIA à « incidence élevée » Ce qui n’entre pas dans ces catégories ne sont pas réglementées - à l'exception des obligations de transparence spécifiques concernant « certains systèmes ». Cela signifie que beaucoup dépendra de la bonne catégorisation des systèmes d’IA comme à haut risque et d'une meilleure articulation des pratiques interdites. À moins que la loi n'obtienne ce droit, cela pourrait en fait entraîner moins de protection plutôt que plus, car cela légitimerait fondamentalement le développement, la mise à disposition sur le marché et l'utilisation de tous les systèmes qui ne sont pas qualifiés de haut risque et ne font pas partie des pratiques interdites.
Il semble que l’Al act soit principalement ou uniquement conçue comme une loi administrative, axée sur les organes de contrôle et les amendes administratives, s'abstenant de régler les questions de responsabilité de droit privé et d'attribuer des droits aux personnes physiques. Je pense qu'un petit ensemble de droits cruciaux devrait être attribué aux personnes physiques, tout en incluant également certains droits collectifs.
A. Le droit de ne pas être soumis à des pratiques interdites en matière d’IA ;
B. Le droit de s'opposer aux décisions prises par les systèmes d'IA à haut risque ;
C. Le droit de déposer une injonction devant un tribunal et de confier ce droit à une ONG au cas où l'on serait soumis à des pratiques d'IA interdites ou à des décisions prises par des systèmes d'IA à haut risque ;
D. Le droit des ONG dédiées à déposer une injonction en leur propre nom en ce qui concerne les droits sous A et B.
Madame Nagla Rizk est professeure à l’Université américaine du Caire et Directrice fondatrice du Centre d'accès au savoir pour le développement (A2K4D) Co-Lead, Open AIR. Elle a présenté The Fairwork Project. Fairwork est un projet basé à l'Oxford Internet Institute, Université d'Oxford, financé par le ministère fédéral de la Coopération économique et du Développement (BMZ), commandé par la Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ).
Le texte ci-dessous est la traduction de textes du site https://fair.work/en/fw/homepage/
Les plateformes sont aujourd'hui au cœur de l'économie numérique.
Fairwork évalue les conditions de travail des platesformes de travail numériques dans l'économie des plates-formes à l'échelle internationale et note les plates-formes individuelles en fonction de leurs performances ou de leurs faiblesses. Le projet a développé cinq principes de travail équitable que les plateformes numériques doivent respecter pour être considérées comme conformes à Fairwork.
Principe 1. Rémunération équitable - Les travailleurs devraient gagner un revenu décent dans leur juridiction d'origine qui prenne en compte les dépenses liées au travail et les heures actives travaillées. Ils doivent être payés à temps et pour tous les travaux effectués.
Principe 2. Conditions équitables - Les plateformes devraient avoir des politiques en place pour protéger les travailleurs contre les risques fondamentaux découlant des processus de travail, et devraient prendre des mesures proactives pour protéger et promouvoir la santé et la sécurité des travailleurs.
Principe 3. Contrats équitables - Les termes et conditions doivent être transparents, concis et toujours accessibles aux travailleurs. La partie contractante avec le travailleur doit être soumise à la législation locale et doit être identifiée dans le contrat.
Principe 4. Gestion équitable - Il devrait y avoir une procédure officielle documentée pour les décisions affectant les travailleurs. Les travailleurs doivent avoir la possibilité de faire appel des décisions les concernant, telles que les mesures disciplinaires et la désactivation, et être informés des motifs de ces décisions. L'utilisation d'algorithmes est transparente et aboutit à des résultats équitables pour les travailleurs.
Principe 5. Représentation équitable - Les plateformes doivent fournir un processus documenté par lequel la voix des travailleurs peut être exprimée. Les travailleurs ont le droit de s'organiser en organismes collectifs et les plateformes doivent être prêtes à coopérer et à négocier avec eux.
David Leslie est directeur de la recherche sur l'éthique et l'innovation responsable à l'Institut Alan Turing et professeur d'éthique, technologie et société à l'Université Queen Mary de Londres. Avant de rejoindre le Turing, il a enseigné au Princeton's University Center for Human Values, où il a également collaboré la recherche 2017-2018 de l'UCHV avec le Princeton's Center for Information Technology Policy sur « Technology Ethics, Political Philosophy and Human Values: Ethical Dilemmas in AI Governance ».
Je ne suis malheureusement pas en mesure de rapporter correctement la présentation de monsieur Leslie qui, nous parlant de Londres, a traité de la justice algorithmique, si je relis convenablement mon écriture.
La justice algorithmique consiste en l’utilisation d’algorithmes dans le but d’obtenir un résultat pour déterminer l’issue probable d’une affaire en cours sur le fondement de ce qui a été décidé dans des décisions de justice antérieures.
C’est ce que l’on nomme la justice prédictive. Le Règlement général sur la protection des données (RGPD) n’interdit pas l’utilisation d’algorithmes par le juge. Il précise simplement que, si une personne doit faire l’objet d’une décision ayant des effets juridiques à son égard, elle a droit à ce que cette décision ne soit pas fondée sur un traitement entièrement automatisé de ses données personnelles (tout en ajoutant que cela reste possible si des mesures de sauvegarde de ses libertés existent ou si ladite personne consent à ce traitement automatisé.
Le développement des logiciels de justice prédictive d’aide aux magistrats est par conséquent envisageable.
Session 5 - Perspectives alternatives sur l’éthique et les normativités en matière d'IA: pour une IA « décolonisée » et plus « relationnelle »
Animé par
Karine Gentelet est professeure au Département des sciences sciences sociales à l’Université du Québec en Outaouais. Elle est également Titulaire 2020- 2022 de la Chaire Abeona-ENS-Obvia en intelligence artificielle et justice sociale. Ses intérêts de recherche portent sur la reconnaissance des droits des Premiers Peuples, l’usage de la technologie numérique et l’intelligence artificielle au service de la justice sociale, l’éthique de la recherche en contexte autochtone.
Les conférenciers de cette session sont actifs dans divers programmes où la technologie est au service de l’individu.
Aaditeshwar Seth est professeur associé au Département d'informatique de l'IIT Delhi, où il dirige le groupe de recherche ACT4D (Appropriate Computing Technologies for Development). Il est passionné par la création de technologies qui peuvent donner aux gens les moyens d'accéder à l'information. Il dirige également une entreprise sociale, Gram Vaani, qui construit des systèmes basés sur la voix pour les médias communautaires dans les zones rurales. Ses intérêts politiques résident dans l'utilisation éthique des TIC (technologies de l'information et de la communication) et des médias.
Il y a un long chemin à parcourir en autonomisation informatique.
Il faut de meilleures façons de faire, apprendre à écouter l’usager pour mieux gérer les technologies et supprimer les inégalités fondées sur le pouvoir, en comprenant les relations sociales de la technologie. Ce qui soulève un nouvel ensemble de défis de méta-niveau pour que les technologues soient véritablement en mesure d'autonomiser l’informatique.
Quel est le but de la technologie, des technologues? Quel est le bien social à rechercher au niveau des systèmes éducatifs, des licences logicielles ?
Une action collective sur le lieu de travail serait-elle désirable pour guérir de la fragmentation sociétale créée par les technologies ? Doit-on transformer le système économique : réformer le capitalisme ou construire un bien commun? Quelles doivent-être nos stratégies?
Marie-Pascale Pomey est professeure titulaire à l’école de santé publique de l’université de Montréal, chercheure régulière au CRCHUMm, titulaire de la Chaire en évaluation des technologie et des pratiques de pointe, médecin à l’INESSS et co-directrice du CEPPP. Elle dirige un programme de recherche sur la co-création d’innovation en particulier en santé numérique avec les patients.
Madame Pomey présente DIGICIT : un projet sur la CiToyenneté DIGitale en partenariat avec les citoyens(es) et les patients(es) dont voici quelques uns des objectifs :
- Enrichir le débat public par la recherche collaborative
- Étudier les perceptions des citoyen.es et des patientes à l'égard des technologies de traçage et notification d’exposition et analyser l'acceptabilité sociale des applications de traçage et de notification d'exposition via un sondage
- Faciliter la collaboration entre les décideurs, les développeurs de technologies et la population afin d'assurer que les développements répondent aux préoccupations des utilisateurs visés.
Quelques recommandations pour réaliser de telles études :
- Informer les utilisateur.ices des mesures prises pour protéger leur vie privée ;
- Changer la terminologie des applications de traçage aux applications de notification d’exposition ;
- Impliquer des citoyennes et des patients(es) au tout début du processus pour identifier les problèmes et trouver des solutions ;
- Effectuer une évaluation continuelle de l'application par les utilisateur.ices pour assurer une utilisation à long terme ;
- Étudier les facteurs qui soutiennent l'adoption responsable des applications et l'efficacité du numérique en santé publique.
L’article Retour sur une recherche participative en santé numérique est mis-en-ligne sur la revue du CREMIS https://api.cremis.ca/wp-content/uploads/2022/08/RevueCREMISvol13no1art8.pdf
Kiito Shilongo est chercheur associée à Research ICT Africa et Senior Tech Policy Fellow à Mozilla. Elle était auparavant praticienne des médias numériques à la banque centrale de Namibie. Le fait d'être au centre du secteur financier en Namibie ainsi que les expériences de travail antérieures dans le secteur privé ont mis en évidence la nécessité d'examiner de manière critique dans quelle mesure les données sont régies, partagées et utilisées pour le bien public. Une cause qui sera au centre de son travail à l'avenir. Elle est titulaire d'une licence en communication de l'Université des sciences et technologies de Namibie et d'une maîtrise de la London School of Economics.
Pourquoi Adopter une approche à points de vue multiples de l'éthique de l’Al ?
La multiplicité des perspectives signifie d’introduire de multiples niveaux de compréhension et d'analyse, cette approche demande de considérer comment divers contextes historiques et structurels influencent la façon dont nous voyons et définissons «l'éthique de l’IA».
La plupart des IA sont développées par une minorité dans l'hémisphère nord, mais elles sont utilisées ou ont un impact sur les communautés du monde entier. Les structures éthiques sont dominés par les structures économiques, sociales et politiques occidentales. Certaines communautés ont des valeurs qui vont au-delà de la satisfaction des besoins des humains, elles se soucient de l'impact de ces besoins sur l'environnement et d'autres écosystèmes vivants. La prise en compte limitée des communautés qui peuvent être marginalisés en raison de l'assujettissement historique. L'absence de preuves de préjudice [pour certains groupes] ne signifie pas l'absence de préjudice causé par les systèmes d’IA.
Ubuntu [iii], Ujaama [iv] et le système de divination Ifa [v] ont une approche qui peut être appliquée à l'éthique IA. Ces références nous permettent de percevoir à la fois les utilisations négatives et positives ainsi que les effets de l’IA sur différents humains ou groupes humains. On doit considérer l’IA comme un écosystème contesté qui peut être reconstruit pour répondre à différents besoins et objectifs humains.
Voici les principaux risques éthiques de l’IA dans cette région :
- Le dilemme de la création d'emplois versus l’empiétement illégal sur les terres autochtones ;
- Il existe des preuves limitées concernant les pratiques actuelles pour assurer la surveillance humaine et la détermination dans l'utilisation de l'Al ou la prise de décision algorithmique ;
- Ensembles de données sous-représentés - en particulier lorsqu'ils ont été développés dans des juridictions étrangères (30 % des études de cas) ;
- Informations publiques limitées expliquant le fonctionnement des algorithmes, les droits de propriété compromettant la transparence potentielle. Des recherches sont nécessaires pour bien comprendre les impacts environnementaux et culturels de l'IA tout au long de son cycle de vie, y compris le rejet de déchets électroniques ;
- Prise en compte des besoins énergétiques élevés de l'IA dans le contexte des crises énergétiques en cours.
Des mécanismes de réglementation qui créent une responsabilité dans le développement et l'utilisation d'IA doivent être développés, y compris l'attribution d'une responsabilité légale pour les dommages causés tout au long des différentes étapes du cycle de vie d’IA.
La cybersécurité reste un domaine politique inégal. Les groupes d'utilisateurs doivent être consultés lors de la conception et de la révision d’IA. Les acteurs de la société civile de la région n'ont pas été suffisamment actifs dans leur rôle de chiens de garde et de surveillance des droits de l’homme.
Quelle est l’utilité de cette «approche selon divers points de vue» ?
- Aborder les énigmes des politiques géopolitiques de manière à ne pas défavoriser les nations économiquement ou politiquement marginalisées ou les personnes vulnérables au sein des nations ;
- Une conception politique qui défie le « centre » ; proactif plutôt que réactif ;
- Les grandes entreprises technologiques devraient concevoir un mécanisme de réparation pour les identités et les communautés minorisées en gardant à l'esprit les injustices historiques et structurelles
- Adopter des approches multidisciplinaires et multipartites pour l'élaboration d'initiatives politiques nationales, régionales et internationales en matière de numérique, de 4RI et d’IA ;
- Soutenir l'alignement international sur les domaines politiques clés, c'est-à-dire Cadre de politique de données de la CUA et UNESCO
Recommandation sur l’éthique :
- Big tech : Envisager des opportunités pour attirer et retenir diverses compétences en IA représentatives du monde global ;
- Soutenir le développement des compétences techniques en Al des personnes faisant partie de la majorité mondiale défavorisée.
Thierry Lindor est un entrepreneur primé, un délégué canadien au G20 YEA et à l’ONU. En 2019, il a remporté le prix Black Tech Matters «Innovative Entrepreneur of the Year» à Washington DC. Au début de la pandémie, il a lancé une plateforme appelée “Colors Of COVID” qui collecte des données basées sur la race et les résultats ont depuis été publiés dans l’une des meilleures revues scientifiques européennes. En 2022, Thierry a été nommé major de promotion du prestigieux Next Ai et HEC Accelerator.
Colours of Covid
Quand le gouvernement n'agit pas, le peuple devrait agir. Thierry Lindor, des militants communautaires, La Fédération des Canadiens noirs, Hoodstock et l'Association de la communauté noire de Côte-des-Neiges (CDNBCA) ainsi que des professeurs de McGill à Montréal se sont associées à Lindor pour le projet. Colours of Covid, une plateforme en ligne, a recueilli des données sur les infections à Covid-19 parmi les Noirs et les Autochtones, ainsi que les personnes de couleur, et des statistiques sur l'insécurité alimentaire, les pertes d'emplois et l'état de santé mentale des gens.
La capacité de pouvoir obtenir ces marqueurs très précis de données montrent un portrait dont nous n'étions pas conscients et permet ensuite de pouvoir réagir. Il s'agit d’un outil que nous pensons que le gouvernement aurait dû faire depuis des années et aurait dû avoir la prévoyance de mettre en place.
Les données raciales sur Covid-19 sont nécessaires au Québec et au Canada pour que les gouvernements fournissent aux communautés une réponse équitable et ciblée.
Colours of Covid cherche à bâtir une communauté responsable pour assurer sécurité et soutien aux membres de la communauté qui sont violemment ciblés et s'engager dans le développement continu de tous les membres de la communauté, et de la communauté elle-même.
Utiliser les résultats de cette recherche pour comprendre ce qui contribue au problème actuel, ce qui est nécessaire pour l’éradiquer, pour soutenir l'élaboration d'un plan de communication afin de relayer les expériences de la communauté noire et d'éclairer l'élaboration d’actions pour résoudre les problèmes de ces communautés.
Ce colloque a tenu ses promesses. Ces trois jours ont été l’occasion d’une réflexion critique des cadres normatifs de l’IA en fonction de leur portée réelle en matière de préservation du bien-être et des droits et libertés de chacun. Les conférenciers invités, par leurs propos complémentaires, ont favorisé une réflexion relativement aux différentes initiatives développées à ce jour qui visent à baliser et encadrer les développements technologiques, en particulier l’IA.
[i] OBVIA https://observatoire-ia.ulaval.ca/apropos/
[ii] Dans le domaine de l'intelligence artificielle, l'explicabilité est la capacité de mettre en relation et de rendre compréhensible les éléments pris en compte par le système d'IA pour la production d'un résultat. CNIL
[iii] L'ubuntu est une philosophie de courage et d'espérance, qui a notamment inspiré Mgr Desmond Tutu lorsqu'il présidait la commission Vérité et réconciliation en Afrique du Sud.
[iv] Ujamaa (signifiant famille, au sens large, en swahili) est un concept qui forme la base de la politique de développement social et économique de Julius Nyerere en Tanzanie. https://fr.wikipedia.org/wiki/Ujamaa
[v] Le mot Ifa désigne le personnage mystique d’Ifa ou Orunmila, considéré par les Yoruba comme la divinité de la sagesse et du développement intellectuel. Le mot Ifa désigne le personnage mystique d’Ifa ou Orunmila, considéré par les Yoruba comme la divinité de la sagesse et du développement intellectuel (Unesco )
https://ich.unesco.org/fr/RL/le-systme-de-divination-ifa-00146
Dernière modification le vendredi, 24 mai 2024