fil-educavox-color1

Le World Summit AI Americas 2023 a eu lieu au Palais des congrès de Montréal les 19 et 20 avril dernier. S’y sont retrouvé près de 3 000 leaders mondiaux du secteur de l’intelligence artificielle : universitaires, fonctionnaires gouvernementaux et entreprises technologiques pour discuter (en anglais) de l’IA d’aujourd’hui et de demain. Beaucoup de domaines de l’IA, éthique, santé, affaire, défense,… furent abordées lors des présentations de spécialistes, de tables rondes ainsi qu’au salon des exposants où notamment plusieurs startups démontraient leurs créations.

Le compte-rendu qui suit offre un tout petit échantillon,  les propos de quelques uns. J’ai régulièrement utilisé Chat GPT pour perfectionner mon texte et traduire en français les discours des intervenants. J’apprécie l’assistance de ChatGPT.

Pour commencer,  qui est Inspired Minds l’organisme qui organise ces évènements?

Inspired Minds [ii]

L’entreprise Inspired Minds a été créée en 2016 par Sarah Porter.  Son siège social est à Cheshunt, Waltham Cross, Angleterre. Sa mission est de favoriser les communications entre tous les participants de l'écosystème mondial de l'IA, allant des grandes entreprises aux startups, des investisseurs aux scientifiques, en particulier en tenant diverses manifestations, dont les World Summit Ai.  

La philosophie de l’entreprise est fondée sur les principes de AI4Good [iii] un organisme qui veut mettre les acteurs de l'écosystème de l’IA européen au service d'un monde meilleur ainsi que sur les objectifs de développement durable de l’ONU. 

Inspired Minds regroupe la plus importante et la plus active communauté d’IA au monde avec plus de 220 000 personnes dans plus de 160 pays. Sa «raison d’être» est de veiller à ce que les technologies émergentes soient inclusives, équitables et sûres. Dans un monde d'incertitude, Inspired Minds tente de créer la certitude par une nouvelle initiative : Inspired Love où ensembles des visionnaires de l’IA s’attaqueront aux problèmes macro auxquels l'humanité est confrontée en résolvant le micro dans les domaines de la santé, de l’éducation, de l’environnement, etc. par l'intelligence artificielle.

Le site Inspired Minds présente des liens vers une série de cours gratuits en ligne sur l’IA [iv]

Ouverture de la conférence par Sarah Porter, PDG et fondatrice d’Inspired Minds

Certaines récentes avancées en IA dévoilées au public, ChatGPT par exemple, ont favorisé la prise de conscience par le simple mortel qui vit en dehors de l’écosystème technologique de l’immense potentiel de l’IA.  Elles ont ouvert une fenêtre et ont provoqué des réflexions sur la présence de l’IA au sein des sociétés.  Pour stimuler les réflexions de l’audience de spécialistes Madame Porter a débuté sa présentation en partageant une série de citations d’importants acteurs du milieu de l’IA dont voici quelques uns que j’ai traduit en français. 

Max Tegmark, Professeur, Physics & Al Research au MIT

Ce n'est pas de la science-fiction.  L’intelligence n'est pas quelque chose qui ne peut exister que dans les cerveaux humains.  L’intelligence est quelque chose que nous pouvons également construire. Le problème vient du fait que tous ceux qui poussent cette course vers un précipice refusent d'admettre l'existence du précipice et personne ne veut, ni ne peut s'arrêter seul - ce n'est pas une course aux armements, c'est une course au suicide.

Joshua Bengio, Canada CIFAR AI Chair, Professeur, Université de Montréal 
Directeur scientifique, Mila & IVADO

L'IA peut être extrêmement utile, mais en même temps, elle peut être extrêmement destructive, c'est pourquoi nous devons ralentir son développement afin que la société puisse s'adapter correctement

Elon Musk, Fondateur, CEO and Ingénieur en chef de Space× , Co-fondateur et CEO de Tesla,  CEO de Twitter

Nous avons besoin d'une sorte d'autorité régulatrice ou de supervision pour encadrer le développement de l'IA et veiller à ce qu'elle opère dans l'intérêt public. Je crains d'avoir contribué à accélérer son développement en faisant certaines choses.

Kay Firth - Butterfield, World Economic Forum

Les exagérations concernant le potentiel de l'IA découlent en grande partie de malentendus sur ce que l'IA peut réellement accomplir. Nous constatons encore de nombreuses machines alimentées par l'IA qui font régulièrement des hallucinations, c'est-à-dire qu'elles commettent beaucoup d'erreurs. Il est donc peu probable que ce type d'IA remplace l'intelligence humaine.

Francesca Rossi,  IBM fellow & AI Ethics Global leader

Le déploiement et l'utilisation de l'IA, en particulier dans les scénarios à haut risque, sont des domaines où les politiques et les régulations devraient intervenir. La formation en recherche et développement en IA devrait comporter une approche intégrée de l'éthique au niveau de la conception des applications et de l'alignement sur les valeurs. Sans cela, nous ne pourrons pas pleinement identifier et aborder les limites et les problèmes de l'IA.

 Professor Juan Jamison,  Global Priorities institute, Oxford University

L'IA présente à la fois de grands risques et de grandes opportunités, à la fois à court terme et à long terme. Contrairement à ce que certains ont affirmé, croire en l'importance vitale du potentiel futur à long terme de l'humanité est principalement un appel à l'action axé sur les valeurs, plutôt que sur la technologie.

Gary Marcus| Scientifique, Auteur, Fondateur (Geometric Intelligence, Acquired by Uber, and Robust.Al). Professeur Emeritus, NYU

Nous demandons le développement immédiat d'une agence internationale, neutre et à but non lucratif, dédiée à l'IA, dans le but de trouver de manière collaborative des solutions de gouvernance et techniques pour promouvoir des technologies d'IA sûres, sécurisées et pacifiques.

Ce dont nous avons besoin, c'est d'une action coordonnée qui est en réalité assez évidente, et qui a été clairement exposée dans la lettre. (Référence à la fameuse lettre signée par 1377 personnes pour prendre du recul sur la situation de l’IA)

Contrairement aux rumeurs, la lettre ne demandait pas l'interdiction de la recherche, mais plutôt un changement dans la direction de la recherche.

Fiona McEvoy| Technology & AI, Ethics Writer/Researcher & Founder, YouTheData.com

N'attendons pas que les avancées nous dépassent pour nous interroger sur la façon dont certains produits intelligents pourraient fonctionner au détriment des individus et de la société.

Sarah Porter

Les principales idées énoncées par madame Porter dans sa présentation sont que l’IA ne devrait jamais être utilisée sans contrôle humain, devrait être développée par des individus de disciplines et origines différentes et avec transparence.  L’IA, c’est la Belle et la bête - un immense potentiel tant pour le bien que pour le mal.

Joshua Bengio :  Ce qui manque à l'IA actuelle et comment nous pouvons combler l’écart.  

La présentation du professeur Bengio a dépassé de loin mes connaissances du sujet.  Les systèmes informatiques qui génèrent les applications d’IA sont très complexes. Cependant la complexité quoique d’application difficile n’est pas nécessairement compliquée à comprendre.  Voici ce qui m’a semblé être l’esprit de la présentation du professeur Bengio et non le détail technologique de cette dernière.

Le professeur Bengio a utilisé ChatGPT comme exemple lors de sa présentation.

Ce modèle de langage basé sur l’IA présente plusieurs limitations et domaines nécessitant des améliorations :

1. Raisonnement similaire à celui des humains : Bien que ChatGPT puisse générer des réponses textuelles basées sur des modèles appris à partir de vastes quantités de données, il lui manque les capacités de raisonnement similaires à celles des humains. Il peut avoir du mal à comprendre des situations complexes, à faire des déductions ou à utiliser le raisonnement basé sur le bon sens de la même manière que les humains.

2. Découverte causale et raisonnement causal : ChatGPT peut avoir du mal à comprendre et à raisonner sur la causalité, y compris à identifier les relations de cause à effet et à faire des prédictions précises basées sur les relations causales.

3. Explication de haut niveau et sources de faits : Bien que ChatGPT puisse générer des réponses textuelles, il ne fournit pas toujours des explications de haut niveau ou ne cite pas toujours de sources spécifiques pour les faits qu'il présente. Il peut ne pas toujours être en mesure de vérifier l'exactitude des informations qu'il génère.

4. Généralisation à partir de son ensemble d'entraînement : La connaissance de ChatGPT est basée sur ses données d'entraînement, qui ont une date de coupure. Il ne peut pas connaître des événements ou des informations qui sont survenus après sa date de coupure, et sa capacité à généraliser à des exemples hors distribution (OOD), ou à des situations très différentes de ses données d'entraînement, peut être limitée.

5. Bonne généralisation avec moins de données : La performance de ChatGPT peut être affectée lorsqu'il est confronté à des données limitées lors de l'inférence, et il peut ne pas généraliser efficacement avec de très petites quantités de données. Il peut nécessiter des quantités importantes de données d'entraînement pour atteindre des niveaux élevés de précision et de généralisation.

6. Améliorer ces limitations est un domaine de recherche actif dans le domaine de l'IA et du traitement du langage naturel. Les avancées dans les techniques d'apprentissage automatique, notamment la découverte et le raisonnement causaux, l'augmentation des données, et l'apprentissage par transfert, pourraient contribuer à résoudre certaines de ces limitations dans les futures itérations des modèles de langage.

Pour améliorer l’IA actuel, il importe de mieux comprendre ce que signifie raisonner à la manière d’un être humain. Raisonner à la manière humaine signifie-t-il utiliser en IA des processus de réflexion et de prise de décision similaires à ceux que les humains utilisent ?

L'inférence bayésienne s’approche des raisonnements humains. Le raisonnement humain s’explique par la capacité cognitive des humains à réfléchir avec logique, déduction et par inférence, activités similaires à un cadre d'inférence bayésien. Cela signifie la capacité d’organiser les informations pour expliquer, planifier, imaginer et apprendre.  Une telle activité demande à l’être humain de décomposer ses savoirs, sa compréhension d’une situation en éléments simples pouvant être réassociés de manière flexible et adaptative.   Un être humain est capable de percevoir un large éventail de contextes, de raisonner de manière flexible, de faire preuve de jugement, de créativité et s'adapter à des situations nouvelles et complexes.

Une théorie qui a été proposée pour expliquer le fonctionnement de la pensée humaine est la théorie de l'espace de travail global (GTW).

L’espace de travail global (Global Workspace Theory, GTW) est une théorie cognitive qui propose un modèle de fonctionnement du cerveau basé sur l'idée que la conscience émerge de l'activité d'un "espace de travail" neuronal, où diverses informations provenant de différentes régions cérébrales sont intégrées et rendues accessibles à la conscience.

Selon la GTW, le cerveau traite une grande quantité d'informations en parallèle et distribuée à travers diverses régions spécialisées. Il y aurait un goulot d'étranglement dans la capacité de traitement des informations dans le cerveau et seulement un petit sous-ensemble de ces informations, représenté sous forme d’idées simples comprenant très peu de concepts, peut entrer dans l'espace de travail global à un moment donné.

Cette capacité limitée exige des choix et des inférences stochastiques difficiles sur quelques éléments latents pour parvenir à des conclusions ou générer des pensées. Cependant, seulement une petite partie de ces informations est rendue accessible à la conscience à un moment donné, dans l'espace de travail global. L'espace de travail global est conçu comme un espace de traitement où les informations provenant de différentes sources sont intégrées, sélectionnées et rendues accessibles à la conscience pour être utilisées dans la prise de décision, la résolution de problèmes, la planification et d'autres fonctions cognitives complexes.  

La GTW postule que l'accès à l'espace de travail global est un processus compétitif, dans lequel les informations provenant de différentes régions cérébrales entrent en compétition pour être intégrées dans l'espace de travail et devenir conscientes. Les informations qui sont intégrées dans l'espace de travail global sont diffusées à travers le cerveau et peuvent influencer l'activité des régions cérébrales spécialisées.

Le professeur Bengio a aussi donné Daniel Kahneman en exemple. Prix Nobel d'économie en 2002, ce psychologue et économiste comportemental est connu pour ses travaux pionniers sur la psychologie de la prise de décision et la rationalité limitée.

Le livre de Kahneman "Système 1 / Système 2 :  Penser, vite et lentement» fait référence à deux modes de pensée distincts dans le cerveau humain. Le "Système 1" est rapide, automatique, intuitif et émotionnel, tandis que le "Système 2" est lent, réfléchi, délibératif et plus rationnel. Kahneman soutient que ces deux systèmes interagissent pour influencer nos perceptions, nos jugements et nos décisions au quotidien. 

Kahneman explore les biais cognitifs, les heuristiques (raccourcis mentaux) et les erreurs de jugement qui sont courants dans le processus de pensée humain. Il met en évidence comment notre cerveau peut prendre des décisions basées sur des intuitions rapides et automatiques (Système 1), mais qui peuvent également être sujettes à des erreurs systématiques.

            J’ai compris que Kahneman explique les faiblesses de la rationalité humaine.

La pensée humaine est caractérisée par des trains de pensées incomplets mais très informatifs, où les humains sont capables de générer en utilisant peu d’énergie des idées significatives et d'établir des liens même avec des informations partielles ou ambiguës. Cela implique la capacité à intégrer et à synthétiser des sources diverses d’informations, à s'appuyer sur des expériences passées et à s'engager dans des processus de résolution créative de problèmes et de réflexion critique.

Atteindre une pensée semblable à la raison humaine dans les systèmes d'IA, y compris les modèles de langage comme ChatGPT, reste une tâche difficile qui nécessite des avancées dans les techniques d'apprentissage automatique, telles que l'inférence bayésienne, la représentation compositionnelle des connaissances et l'incorporation de principes issus des sciences cognitives et de la neuroscience.

Ce que j’ai compris est que le mode de pensée de l’être humain est très faillible et qu’à plusieurs niveaux, l’IA raisonne mieux et présente une analyse plus exacte des situations. L’IA ne démontre pas de subjectivité, ne tient pas compte de l’aspect émotif propre à l’humain et ne considère pas le contexte culturel à moins que les données dont on l’a nourri y font suffisamment référence.

Plusieurs complexes théories statistiques sont utilisées pour permettre à l’IA de raffiner son analyse du monde réel.  Quels théories et systèmes statistiques permettront de tenir compte des émotions, des expériences passées, des croyances, des valeurs et normes sociales, ainsi que de tenir compte du contexte et des implications éthiques d'une situation donnée ?  Quels théories et systèmes statistiques permettront le développement d’un IA suffisamment autonome pour se détacher de son maître humain ?  Comment réguler l’IA pour éviter que cette création ne devienne au service des éléments les plus subversifs et malveillants de l’humanité ?

C’est difficile de prévoir le futur et comment l’IA sera développée. Mais à la vitesse des avancées actuelles, il importe de mettre rapidement en place des lois suffisamment ouvertes tout en étant rigoureuses et accompagnées de réglementations qui peuvent être rapidement adaptées à l’évolution de l’IA par les gouvernements.

Je remercie le professeur Bengio qui a eu la générosité de revoir et d’approuver ce compte-rendu de sa présentation.

AAVAA [v] une startup qui a attiré mon attention

AAVAA est une start-up de Montréal, fondée en 2019 qui bénéficie du soutien stratégique de TandemLaunch,  un principal incubateur de startup de deep tech. AAVAA croit que nous devrions avoir le contrôle total sur nos appareils.  La Plateforme d'Attention et d'Interactivité d'AAVAA permet d’accéder à une nouvelle ère de contrôle homme-machine - l'Internet des Humains.

Une oreillette Bluetooth interprète les signaux du cerveau et de bio-indicateurs à partir de capteurs exclusifs pour améliorer de manière transparente ce que nous souhaitons entendre simplement en nous concentrant sur les sons qui nous intéressent, tout à partir de la passerelle de notre corps : l’oreille. 

Cette technologie permet aux appareils de comprendre et de réagir à nos besoins, sans aucune intervention manuelle. On choisit ce qu’on veut écouter, regarder ou sélectionner simplement en y prêtant attention - aucun bouton ni voix n'est nécessaire. Utiliser notre attention pour :

  • Mettre en sourdine la télévision en détournant notre attention.
  • Augmenter le volume de nos haut-parleurs en nous concentrant sur eux.
  • Diminuer les lumières rien qu'en y pensant.

En plus des écouteurs, je peux transformer mes lunettes connectées, mon casque de réalité virtuelle, mon casque de protection ou tout autre appareil en un dispositif intelligent qui me comprend et réagit à mes besoins.  AAVAA peut être intégré à un appareil médical, de santé ou électronique grand public.

Ça semble magique !

Cette technologie "révolutionnaire" peut non seulement décoder l'attention auditive et visuelle d'un utilisateur, mais aussi son intention et ses commandes subtiles, telles que les clignements d'yeux, les clins d'œil, et autres. Ainsi, en plus d'aider un appareil audio à sélectionner et à améliorer les sons souhaités parmi d'autres commandes, et de ses applications évidentes pour la réalité augmentée/virtuelle, la technologie d'AAVAA permettra éventuellement aux personnes paralysées de diriger leur fauteuil roulant ou d'opérer leurs appareils électroménagers, et bien plus encore.

Réagir à l'attention, aux états internes ou aux émotions de l'utilisateur.
S'adapter à l'utilisateur en fonction de son niveau d'engagement ou d'excitation.
Agir aussi simplement que regarder une icône et cligner des yeux.

            J’avoue ne pas savoir si je devrais être enthousiaste ou craindre cette application !

Intelligence Artificielle Chirurgicale

Présenté par Ozanan R. Meireles, MD, FACS, Professeur- École de Médecine de Harvard
Hôpital Général du Massachusetts

Ce n’est pas le détail de l’évolution de l'IA chirurgicale qui m’a attiré vers cette excellente présentation mais plutôt le désir d’être informée des considérations de la médecine, une profession à l’intersection de la science, la technologie et le service à l’être humain quant à l’utilisation de l’IA.  Cette présentation quoique spécialisée peut être perçue comme un cadre de référence applicable à d’autres contextes.

Monsieur Meireles a commencé sa conférence en présentant les principales révolutions technologiques en chirurgie et une série de définitions  :

  • Intelligence Artificielle : L'étude des algorithmes qui confèrent aux machines la capacité de raisonner et d'effectuer des fonctions cognitives - 1956
  • Apprentissage Automatique : Des algorithmes qui s'améliorent automatiquement grâce à l'analyse des données et à l'expérience
  • Vision par Ordinateur : La compréhension par les machines des images et des vidéos.
  • Conscience : La conscience de l'existence interne et externe. L'état d'être conscient et réactif à son environnement.
  • Conscience Collective :  L'ensemble de croyances, d'idées et d'attitudes morales partagées qui agissent comme une force unificatrice au sein de la société. En général, cela ne fait pas référence à la conscience morale spécifique, mais à une compréhension partagée des normes sociales et des concepts.

Etat de la situation
Des chercheurs de l'Université d'Oxford et de Yale prédisent que toutes les industries, y compris le secteur de la santé, pourraient devenir beaucoup plus dépendantes de l'intelligence artificielle d'ici le milieu du siècle - et que les machines pourraient être en mesure d'automatiser tous les emplois humains en moins de 120 ans.

Le réseau de neurones convolutifs (CNN) atteint des performances comparables à celles de tous les experts testés démontrant ainsi qu'une intelligence artificielle est capable de classer les cancers de la peau avec un niveau de compétence comparable à celui des dermatologues.

Le paradoxe de Moravec
Une observation formulée par le chercheur en intelligence artificielle Hans Moravec qui soutient que, contrairement à ce que l'on pourrait penser, les compétences cognitives considérées comme faciles pour les humains sont souvent difficiles à reproduire pour les machines, tandis que les compétences cognitives considérées comme complexes peuvent être relativement faciles à programmer dans une machine.

En d'autres termes, les tâches qui sont intuitives et naturelles pour les humains, car nous les avons développées grâce à l'évolution, sont souvent difficiles à enseigner aux machines, car elles nécessitent des compétences sensorielles et motrices complexes. En revanche, les tâches qui sont considérées comme hautement intellectuelles et nécessitant une réflexion abstraite, comme la résolution de problèmes mathématiques, peuvent être plus faciles à programmer dans une machine, car elles sont basées sur la logique et l'algorithme.

Le paradoxe de Moravec souligne ainsi que notre compréhension de l'intelligence et de la manière de la reproduire dans les machines est souvent en contradiction avec nos intuitions initiales, et que les machines peuvent avoir des forces et des faiblesses différentes de celles des êtres humains dans la réalisation de certaines tâches cognitives.

Exemples concrets d'échecs dans les systèmes d'intelligence artificielle (IA)

  • Accidents de voitures autonomes : Il y a eu des cas d'accidents impliquant des voitures autonomes, entraînant des blessures ou des décès. Par exemple, en 2018, une voiture autonome a heurté et tué un piéton en Arizona, aux États-Unis. Cet incident a mis en évidence les limites de l'IA dans la perception et la réaction à des scénarios complexes du monde réel.
  • Biais dans la reconnaissance faciale : La technologie de reconnaissance faciale a montré des biais, où elle peut mal identifier ou mal identifier de manière disproportionnée des individus de certains groupes raciaux ou ethniques. Cela a soulevé des préoccupations concernant les biais et la discrimination dans les systèmes d'IA, notamment dans le contexte des forces de l'ordre et de la surveillance.
  • Mauvaises réactions des chatbots : Les chatbots, qui sont des agents de conversation alimentés par l'IA, ont parfois adopté un comportement inapproprié ou ont répondu de manière inappropriée aux utilisateurs. Par exemple, le chatbot Tay de Microsoft, lancé en 2016, a rapidement appris et adopté un langage offensant et nuisible ce qui a entraîné sa fermeture.
  • Désinformation générée par l'IA : L'IA a été utilisée pour générer de fausses informations, des deepfakes et de la désinformation, qui peuvent se propager rapidement et avoir un impact négatif sur la perception du public, la confiance et la prise de décision.
  • Biais dans l'embauche et le recrutement : Les systèmes d'embauche et de recrutement alimentés par l'IA ont démontré avoir des biais, tels que des biais de genre ou de race, dans le processus de sélection, entraînant une discrimination dans les décisions d'embauche.
  • Erreurs de diagnostic médical : Les systèmes d'IA utilisés pour le diagnostic médical, tels que la radiologie ou la pathologie, ont montré des erreurs ou des faux positifs/négatifs, entraînant un mauvais diagnostic et un préjudice potentiel pour les patients.

Ces exemples mettent en lumière le fait que bien que l'IA ait montré un potentiel énorme dans divers domaines, elle n'est pas infaillible et peut avoir des limitations, des biais et des échecs.

Cela souligne l'importance du développement de tests et du déploiement responsable des systèmes d'IA, ainsi que de la surveillance humaine continue et de la correction des biais et des erreurs pour garantir une utilisation sûre et éthique.

Obstacles et limites de l'intelligence artificielle (IA) :

  • Accès limité : L'accès restreint à des données de qualité et en quantité suffisante peut constituer un obstacle pour le développement et l'entraînement d'un modèle d'IA performant. L'accès limité aux ressources informatiques et technologiques nécessaires peut également entraver la mise en œuvre de certaines applications d'IA.
  • Annotation limitée : L'annotation des données, qui consiste à étiqueter et annoter les données d'entraînement pour les modèles d'IA, peut être une tâche longue et coûteuse. Le manque d'annotations précises et complètes peut réduire la qualité et la performance des modèles d'IA.
  • Régulation : L'IA est un domaine émergent et en constante évolution, ce qui pose des défis en matière de régulation. Les cadres légaux et réglementaires peuvent être en retard par rapport aux avancées technologiques, ce qui peut entraîner des lacunes en matière de protection des données, de responsabilité et de sécurité.
  • Biais systémiques : Les modèles d'IA sont formés sur la base de données historiques, qui peuvent contenir des biais systémiques tels que des discriminations raciales, de genre ou d'autres formes de partialité. Ces biais peuvent être reproduits par les modèles d'IA, ce qui peut entraîner des résultats biaisés et injustes dans certaines applications d'IA, tels que la sélection de candidats, l'évaluation des performances, ou la prise de décision automatisée.

Il est important de reconnaître et de surmonter ces obstacles et limites pour développer et déployer des systèmes d'IA éthiques, responsables et équitables. Cela nécessite une attention particulière à la qualité des données, à la régulation appropriée, à la mitigation des biais, ainsi qu'à la sensibilisation aux défis éthiques et sociaux posés par l'IA.

Obstacles et limites de l'intelligence artificielle (IA) dans le domaine médical :

  • Temps limité : Les médecins ont souvent un temps limité pour prendre des décisions cliniques, ce qui peut limiter leur capacité à intégrer pleinement les résultats générés par les systèmes d'IA dans leur pratique quotidienne. Le temps nécessaire pour comprendre et interpréter les résultats d'un système d'IA peut être un défi dans un environnement médical où les décisions doivent être prises rapidement.
  • Pression de productivité : Les médecins sont souvent soumis à une pression de productivité pour voir un grand nombre de patients dans un laps de temps limité. Cela peut limiter leur capacité à utiliser pleinement les systèmes d'IA dans leur pratique clinique, car cela peut ajouter du temps supplémentaire pour comprendre et intégrer les résultats d'IA dans leur flux de travail.
  • Culture : La culture et l'acceptation des nouvelles technologies, y compris l'IA, peuvent varier dans le domaine médical. Certains médecins peuvent être réticents à utiliser les systèmes d'IA en raison de préoccupations liées à la confidentialité des données, à la responsabilité médicale, à la confiance dans la technologie ou à la crainte de remplacer les compétences cliniques traditionnelles par des machines.

Il est important de reconnaître ces obstacles et limites de l'IA dans le domaine médical et de s’en préoccuper de manière appropriée pour maximiser le potentiel des systèmes d'IA dans l'amélioration des soins de santé. Cela peut nécessiter une formation et une éducation adéquate des médecins, ainsi qu'une approche éthique et responsable dans le développement et le déploiement de l'IA dans la pratique clinique.

Obstacles et limites de l'intelligence artificielle (IA) dans la recherche :

  • Accès limité aux données : L'IA dépend de données de qualité pour apprendre et générer des résultats précis. Cependant, dans certains domaines de recherche, l'accès à des données de haute qualité peut être limité en raison de restrictions de confidentialité, de coûts élevés, ou de la disponibilité limitée de données pertinentes.
  • Annotation limitée des données : L'annotation des données, c'est-à-dire l'étiquetage manuel des données pour l'apprentissage supervisé, peut être un processus coûteux et chronophage. Il peut être difficile d'obtenir des ensembles de données annotées de manière adéquate pour entraîner des modèles d'IA, notamment dans des domaines de recherche spécialisés.
  • Complexité et diversité des données : Certains domaines de recherche impliquent des données complexes et diversifiées ce qui peut rendre difficile l'utilisation de techniques d'IA pour les analyser et les interpréter de manière précise.
  • Éthique et responsabilité : L'utilisation de l'IA dans la recherche soulève des questions éthiques et de responsabilité, notamment en matière de confidentialité des données, de biais et d'équité, ainsi que de transparence et d'interprétabilité des modèles d'IA. Il est essentiel de garantir que les recherches utilisant l'IA sont menées de manière éthique et responsable, en respectant les normes éthiques et les réglementations appropriées.
  • Limites des modèles d'IA : Bien que les modèles d'IA puissent être très performants dans certaines tâches, ils ont aussi leurs limites. Ils peuvent être sensibles aux données d'entraînement, aux biais et aux erreurs, et ne sont pas toujours capables de généraliser de manière robuste à de nouvelles données ou de produire des résultats interprétables et explicables.
  • Expertise technique : L'utilisation de l'IA dans la recherche peut nécessiter une expertise technique avancée en matière de modélisation, de programmation et de gestion des données, ce qui peut être un obstacle pour certains chercheurs qui ne possèdent pas ces compétences.

Il est important de reconnaître ces obstacles et limites de l'IA dans la recherche et de les aborder de manière appropriée pour garantir une utilisation responsable et efficace de l'IA dans le contexte de la recherche scientifique. Cela peut impliquer le développement de nouvelles approches, la collaboration entre chercheurs et experts en IA, ainsi que la prise en compte des aspects éthiques et de responsabilité dans la conception et la réalisation des projets de recherche utilisant l'IA.

Obstacles et limites de l'intelligence artificielle (IA) dans l'industrie :

  • Pression du marché : Dans un contexte industriel concurrentiel, il peut y avoir une pression pour adopter rapidement des technologies d'IA sans une évaluation complète de leur impact sur les opérations, la productivité et la rentabilité. Cette pression peut entraîner une adoption précipitée et une utilisation inefficace de l'IA, sans tenir compte de ses limites, de sa faisabilité ou de son adéquation pour les besoins spécifiques de l'entreprise.
  • Culture organisationnelle : La culture d'une organisation peut également constituer un obstacle à l'adoption de l'IA. Certaines entreprises peuvent être réticentes à adopter l'IA en raison de la résistance au changement, de la méfiance envers les nouvelles technologies, de la peur de la substitution de l’être humain par la machine, ou de la crainte de perdre le contrôle sur les processus ou les décisions.
  • Manque d'expertise interne : L'implémentation et la gestion de l'IA dans l'industrie peuvent nécessiter des compétences techniques avancées, telles que la modélisation de données, l'apprentissage automatique, la gestion des données et la cybersécurité. Si une entreprise ne dispose pas d'une expertise technique interne adéquate, cela peut constituer un obstacle à l'adoption et à l'utilisation efficace de l'IA.
  • Coûts d'implémentation : L'implémentation de l'IA peut également impliquer des coûts élevés, notamment pour l'acquisition de matériel et de logiciels spécialisés, la formation du personnel, la gestion des données et la maintenance des systèmes d'IA. Ces coûts peuvent constituer un obstacle pour certaines entreprises, en particulier les petites et moyennes entreprises (PME) avec des ressources financières limitées.
  • Éthique et responsabilité : L'utilisation de l'IA dans l'industrie soulève également des questions éthiques et de responsabilité, notamment en matière de protection de la vie privée des employés et des clients, de biais et de discrimination potentiels, ainsi que de responsabilité légale en cas d'erreurs ou de défaillances des systèmes d'IA.
  • Interprétabilité et transparence : Les modèles d'IA peuvent souvent être complexes et difficiles à interpréter, ce qui peut poser des défis en matière de transparence et de responsabilité. Il peut être difficile pour les entreprises de comprendre comment les décisions sont prises par les systèmes d'IA et d'expliquer ces décisions à leurs clients, partenaires commerciaux ou parties prenantes.

Il est important pour les entreprises de reconnaître ces obstacles et limites de l'IA dans l'industrie et de les aborder de manière appropriée en mettant en place des stratégies d'adoption responsables, en investissant dans la formation et l'expertise technique, en évaluant attentivement les coûts et les bénéfices de l'IA, et en respectant les considérations éthiques et légales associées à son utilisation.

Obstacles et limites de l'intelligence artificielle (IA) dans le domaine de la médecine, du point de vue du patient

Ne pourrait-ton pas appliquer partiellement à l’enseignement ?

  • Confidentialité : La confidentialité et la protection des données de santé sont des préoccupations majeures dans l'utilisation de l'IA en médecine. Les patients peuvent être préoccupés par la manière dont leurs données médicales sont collectées, stockées, utilisées et partagées dans le cadre de l'IA, et cela peut constituer un obstacle à l’adoption de ces technologies.
  • Pression des soins de santé : Les pressions exercées sur le système de soins de santé, telles que les temps d'attente, la surcharge de travail des professionnels de santé, les contraintes de temps pour les consultations et les traitements, peuvent limiter la pleine utilisation de l'IA. Les patients peuvent faire pression pour accéder rapidement à des soins de santé et des traitements standardisés, ce qui peut réduire la possibilité d'utiliser pleinement l'IA pour des approches plus personnalisées et adaptées à chaque patient.
  • Relation avec le clinicien : L'utilisation de l'IA en médecine peut également soulever des questions concernant la relation entre le patient et le clinicien. Certains patients peuvent être réticents à l'idée de confier leur santé à des systèmes d'IA plutôt qu'à des professionnels de santé humains, et cela peut influencer leur acceptation et leur utilisation de ces technologies. La confiance, la communication et la compréhension de la manière dont l'IA est utilisée dans le cadre de leur relation avec le clinicien peuvent être des obstacles potentiels.

Il est essentiel de prendre en compte ces obstacles et limites de l'IA du point de vue du patient en médecine, de respecter leur confidentialité et leurs préoccupations en matière de protection des données, de reconnaître les pressions du système de soins de santé et de maintenir une relation de confiance entre les patients et les cliniciens dans l'utilisation de l'IA. Une approche éthique, transparente et centrée sur le patient est nécessaire pour surmonter ces obstacles et tirer pleinement parti du potentiel de l'IA dans le domaine de la médecine.

Solutions pour surmonter les obstacles et limites de l'IA dans l'industrie :

  • Travail fondamental : Un travail de recherche et développement approfondi est nécessaire pour améliorer les fondements de l'IA, tels que les algorithmes, les architectures de réseau neuronal, les méthodes d'apprentissage, et les techniques de traitement des données. Cela peut permettre de mieux comprendre les limites actuelles de l'IA et d'identifier des solutions pour les surmonter.
  • Annotation : L'annotation des données est un processus clé dans l'apprentissage supervisé des modèles d'IA. Il est important d'améliorer les méthodes d'annotation des données pour garantir des jeux de données de haute qualité, diversifiés et éthiques, qui permettent d'entraîner des modèles d'IA plus performants et moins biaisés.
  • Structure et utilisation des données : Il est crucial d'établir une structure solide pour la collecte, la gestion et l'utilisation des données dans le cadre de l'IA. Cela peut inclure la normalisation des données, la gestion de la qualité des données, la protection de la vie privée issue des données, et l'utilisation responsable et éthique des données pour éviter les biais et les erreurs dans les modèles d'IA.
  • Politiques de gouvernance, régulations et supervision : Il est nécessaire de mettre en place des politiques de gouvernance et des régulations appropriées pour encadrer l'utilisation de l'IA dans l'industrie. Cela peut inclure la régulation des données, la transparence des algorithmes, la responsabilité des développeurs d'IA, et la supervision des systèmes d'IA pour garantir leur conformité aux normes éthiques et légales.
  • Besoins structurels : Il peut être nécessaire de mettre en place une infrastructure et un cadre pour la collecte de données vidéo dans certaines applications de l'IA, comme la vision par ordinateur. Cela peut inclure des dispositifs de collecte de données vidéo de haute qualité, des protocoles de stockage sécurisés, et des normes de traitement et d'annotation des données vidéo.
  • Gestion du cycle de vie des données : Il est important de gérer de manière responsable le cycle de vie des données dans le cadre de l'IA, en s'assurant de leur qualité, de leur intégrité, de leur disponibilité et de leur sécurité tout au long du processus d'apprentissage et d'utilisation des modèles d'IA.
  • Création et diffusion des connaissances : La recherche scientifique, l'éducation et la transformation culturelle sont également des solutions clés pour surmonter les obstacles de l'IA dans l'industrie. Cela peut inclure la publication de résultats de recherche, la formation et l'éducation des professionnels de l'IA, et la sensibilisation à la culture de l'IA dans les organisations pour favoriser une adoption responsable et éthique de l'IA.

Il est important d'aborder ces solutions de manière holistique et intégrée pour surmonter les obstacles et les limites de l'IA dans l'industrie et promouvoir une utilisation responsable, éthique et bénéfique de l'IA pour la société.

Solutions pour répondre aux besoins structurels dans le domaine de l'IA :

Les données vidéos sont essentielles pour l’Intelligence Artificielle Chirurgicale.

  • Besoin de structure : Il peut être nécessaire de mettre en place une infrastructure solide pour répondre aux défis spécifiques de la collecte et de la gestion des données dans certaines applications de l'IA, notamment celles basées sur des données vidéo.
  • Cadre d'acquisition de données vidéo : Un cadre d'acquisition de données vidéo robuste peut être mis en place pour garantir que les données vidéo collectées sont de haute qualité, variées et pertinentes pour l'apprentissage des modèles d'IA. Cela peut inclure des protocoles de collecte de données standardisés, des dispositifs de collecte de données de haute qualité, et des méthodes d'annotation appropriées pour les données vidéo.
  • Gestion du cycle de vie des données : La gestion responsable du cycle de vie des données est essentielle pour garantir la qualité, la sécurité et l'intégrité des données utilisées dans les modèles d'IA. Cela peut inclure la collecte, le stockage, le traitement, l'annotation, la validation, la mise à jour et la suppression appropriés des données tout au long de leur cycle de vie.

Il est important de mettre en place ces solutions structurelles pour garantir une utilisation efficace et responsable des données dans le domaine de l'IA, en particulier pour les données vidéo qui peuvent être complexes à gérer. Cela peut contribuer à améliorer la qualité des modèles d'IA, à minimiser les biais, et à garantir que les décisions prises sur la base de ces modèles sont justes et éthiques.

Solutions pour la création et la diffusion des connaissances dans le domaine de l'IA :

  • Recherche scientifique : La recherche scientifique continue est essentielle pour avancer dans le domaine de l'IA. Cela implique la réalisation d'études de recherche rigoureuses, la publication des résultats dans des revues scientifiques et la collaboration entre chercheurs pour échanger des idées et des connaissances. La recherche scientifique peut contribuer à l'amélioration des modèles d'IA, à l'identification des limites et des obstacles, ainsi qu'à la découverte de nouvelles solutions et avancées technologiques.
  • Éducation : Une éducation solide et continue dans le domaine de l'IA est nécessaire pour former des experts compétents et informés dans ce domaine. Cela peut inclure la formation des chercheurs, des ingénieurs, des développeurs et des professionnels de la santé sur les principes de base de l'IA, les meilleures pratiques, les éthiques et les implications sociales de l'IA. L'éducation peut également aider à sensibiliser le public sur l'IA, à démystifier les idées fausses et à encourager une compréhension plus approfondie et éclairée de cette technologie.
  • Transformation culturelle : La transformation culturelle est importante pour adapter la société aux changements induits par l'IA. Cela peut impliquer de créer une culture d'ouverture à l'innovation, de remettre en question les préjugés et les idées préconçues, et de promouvoir l'éthique, la transparence et la responsabilité dans l'utilisation de l'IA. La transformation culturelle peut également encourager la collaboration, la diversité des perspectives et l'acceptation du changement dans les domaines où l'IA est utilisée.

La création et la diffusion des connaissances sont essentielles pour promouvoir un développement responsable de l'IA, en s'appuyant sur la recherche scientifique, l'éducation et la transformation culturelle pour garantir une utilisation éthique, responsable et bénéfique de cette technologie dans la société.

Le développement d'un cadre pour le système opératoire chirurgical pourrait inclure les éléments suivants :

1. Modèle d'accès ouvert pour promouvoir la collaboration : Permettre aux différents acteurs du domaine chirurgical, tels que les chirurgiens, les chercheurs et les techniciens, d'accéder à des données et à des ressources partagées, favorisant ainsi la collaboration et l'échange d'informations.

2. Standardisation : Établir des normes et des protocoles communs pour les pratiques chirurgicales, les équipements, les technologies et les données, afin d'assurer une cohérence et une compatibilité entre les différents systèmes et de faciliter la communication et la comparaison des résultats.

3. Annotation : Développer des méthodes d'annotation pour les données chirurgicales, telles que les vidéos, les images et les données cliniques, afin de permettre leur analyse et leur utilisation ultérieure pour la recherche, l'éducation et l'amélioration des pratiques chirurgicales.

4. Structure des données : Élaborer une structure appropriée pour la collecte, la gestion et la représentation des données chirurgicales, en tenant compte des besoins de sécurité, de confidentialité et d'intégrité des données, ainsi que des exigences d'interopérabilité entre les différents systèmes et applications.

5. Politiques et régulations claires : Établir des politiques et des régulations claires concernant la collecte, l'utilisation, le partage et la protection des données chirurgicales, en garantissant le respect des normes éthiques, légales et réglementaires applicables.

6. Transparence et supervision : Mettre en place des mécanismes de transparence et de supervision pour assurer une utilisation responsable et éthique des données chirurgicales, en impliquant les parties prenantes, les patients et la communauté médicale dans le processus de décision et de gestion.

7. Résolution des problèmes de propriété : Aborder les questions de propriété intellectuelle, de confidentialité et de partage des données chirurgicales, en définissant les droits et les responsabilités des différents acteurs, tels que les patients, les cliniciens, les chercheurs et les institutions, pour éviter les conflits potentiels.

Ces éléments peuvent contribuer à élaborer un cadre solide pour le système opératoire chirurgical, favorisant la collaboration, la standardisation, la gestion des données, la transparence et l'éthique dans l'utilisation de l'IA et des technologies dans le domaine de la chirurgie.

La gouvernance de l'intelligence artificielle (IA) dans le domaine chirurgical est un élément clé pour assurer une utilisation responsable et éthique de cette technologie. Les régulations, politiques et la supervision sont des aspects importants de cette gouvernance, et peuvent inclure les éléments suivants :

1. Régulations : Il est essentiel d'établir des régulations claires et adaptées à l'utilisation de l'IA en chirurgie. Cela peut inclure des lois, des normes, des directives et des protocoles régissant l'utilisation de l'IA dans les pratiques chirurgicales. Les régulations peuvent également aborder des questions telles que la sécurité, la confidentialité, la protection des données, la responsabilité légale et les autorisations nécessaires pour utiliser l'IA en chirurgie.

2. Politiques : Les politiques sont des directives ou des principes qui orientent la prise de décision et les actions liées à l'utilisation de l'IA en chirurgie. Cela peut inclure des politiques internes au sein des institutions de santé, des hôpitaux, des cliniques ou d'autres organismes impliqués dans l'utilisation de l'IA en chirurgie. Les politiques peuvent aborder des questions telles que l'évaluation des technologies d'IA, les procédures de consentement éclairé, la formation des praticiens, la gestion des données, et la surveillance des performances de l'IA.

3. Supervision : La supervision de l'utilisation de l'IA en chirurgie implique la surveillance et le suivi continu des activités liées à l'IA pour s'assurer qu'elles sont conformes aux régulations et politiques établies. Cela peut inclure la surveillance des performances de l'IA, la gestion des risques, l'évaluation des résultats cliniques, la détection des erreurs ou des biais, et la prise de mesures correctives en cas de besoin. La supervision peut être assurée par des comités d'éthique, des comités de régulation, des autorités de santé, des experts en IA, et d'autres parties prenantes.

En résumé, la gouvernance de l'IA en chirurgie nécessite la mise en place de régulations claires, de politiques appropriées et d'une supervision continue pour garantir une utilisation responsable et éthique de cette technologie dans le contexte chirurgical.

The moral machine [vi] est une plateforme qui permet de jouer et ainsi compiler différents perpectives humaines sur les décisions morales prises par les machines intelligentes,

Des études scientifiques récentes sur l’éthique des machines ont sensibilisé les medias et l'opinion publique à ce sujet. Ce site web vise à approfondir cette discussion en fournissant une plateforme pour : 1) construire une image de l’opinion humaine sur la façon avec laquelle les machines doivent prendre des décisions lorsqu’elles sont confrontées à des dilemmes moraux, 2) rassembler et débattre des potentiels scénarios à conséquence morale.

"Éthique selon qui ?" en se basant sur les résultats de The Moral Machine. Les opinions proviennent d'un large éventail d'individus avec des antécédents culturels, éthiques et moraux variés.  Les jugements éthiques sont basés sur le consensus des utilisateurs qui ont participé à la plateforme.

Il est important de noter que les perspectives éthiques et les valeurs peuvent varier largement selon les individus, les cultures et les cadres philosophiques. Ce qui peut être considéré comme éthique par une personne ou un groupe peut ne pas être perçu comme tel par un autre. L'éthique est un domaine complexe et subjectif, et différentes personnes peuvent avoir des opinions différentes sur ce qui est éthique ou non.

Autres considérations

1. À qui appartiennent les données ? La question de la propriété des données peut varier en fonction du contexte et de la juridiction. Dans certains cas, les données générées par les systèmes basés sur l'IA peuvent appartenir à l'entité qui exploite ou gère le système, telle qu'un hôpital, un payeur ou un prestataire de soins de santé. Dans d'autres cas, elles peuvent être soumises à des lois sur la protection des données et de la vie privée qui déterminent les droits de propriété. Il est important de prendre en compte les lois et les réglementations pertinentes dans le contexte spécifique du système d'IA en question, et de veiller à ce que la propriété des données soit traitée de manière appropriée pour protéger les droits et la vie privée des personnes concernées.

2. Qui reçoit le crédit ? Le crédit pour les résultats ou les succès des décisions basées sur l'IA peut également être une question complexe. Dans certains cas, le crédit peut être attribué aux développeurs ou aux opérateurs du système d'IA, tandis que dans d'autres cas, il peut être partagé entre les différentes parties prenantes, telles que les patients, les prestataires, les hôpitaux ou les payeurs, en fonction de leurs rôles et contributions respectives. Il est important d'établir des mécanismes clairs pour créditer et reconnaître les contributions dans le contexte de la prise de décision basée sur l'IA afin d'assurer l'équité et la responsabilité.

3. Qui est blâmé ? De même, attribuer le blâme en cas d'issues négatives ou d'échecs des décisions basées sur l'IA peut être difficile. Dans les cas où les systèmes d'IA commettent des erreurs, il n'est pas toujours clair qui doit être tenu responsable. Il peut s'agir des développeurs du système d'IA, des opérateurs ou d'autres parties prenantes impliquées dans le processus de prise de décision. Déterminer la responsabilité et la responsabilisation dans le contexte des décisions basées sur l'IA nécessite une réflexion minutieuse sur les rôles, les responsabilités et les circonstances spécifiques de chaque situation.

4. Comment expliquer les décisions basées sur l'IA aux patients ? Expliquer les décisions basées sur l'IA aux patients peut être difficile, car les systèmes d'IA impliquent souvent des algorithmes complexes et des processus techniques qui peuvent être difficiles à comprendre pour les patients. Cependant, il est important d'assurer la transparence et de fournir des informations aux patients de manière compréhensible. Cela peut impliquer l'utilisation d'un langage clair, d'aides visuelles et d'autres moyens de communication pour expliquer le processus de prise de décision, le rôle de l'IA et les implications de la décision sur leur santé.

5. Peut-on contester la décision ? La possibilité de contester les décisions basées sur l'IA peut également être une considération importante. Les patients, les prestataires et autres parties prenantes peuvent avoir besoin de voies de recours ou de résolution des litiges s'ils sont en désaccord avec une décision.  Si la décision prise par l'IA est basée sur un algorithme opaque et qu'il est impossible de comprendre les raisons de cette décision, il peut être difficile de la contester.

Auteur : Ninon LePage 

[i] Toutes les présentations ont été en anglais.  J’en ai fait la traduction en m’aidant parfois de Google Translate et de Chat GPT.  Ça d’ailleurs été un exercice amusant de comparer les traductions proposées par l’un ou l’autre.  J’ai évidemment adapté les traductions proposées à ma propre compréhension des textes.

[ii] inspired Minds https://inspired-minds.co.uk/

[iii] IA4Good https://www.aiforgood.eu/home-fr

[iv] Cours et ressources sur l’IA - Une liste organisée par InspiredMinds de cours gratuits en ligne sur l’IA https://inspired-minds.co.uk/courseslist/

[v] AAVAA https://aavaa.com/fr/

[vi] The moral machine https://www.moralmachine.net/hl/fr

Dernière modification le vendredi, 24 mai 2024
Ninon Louise LePage

Sortie d'une retraite hâtive poussée par mon intérêt pour les défis posés par l'adaptation de l'école aux nouvelles réalités sociales imposées par la présence accrue du numérique. Correspondante locale d'Educavox pour le Canada francophone.