fil-educavox-color1

ALL IN, un carrefour incontournable …pour explorer les avancées de l’IA au service de la transformation économique. La conférence internationale, ALL IN est une initiative de SCALE AI. [i], pôle canadien d'innovation en intelligence artificielle (IA) reconnu mondialement et organisée en collaboration avec Mila [ii],  Institut québécois d'intelligence artificielle. L’édition ALL IN 2025, tenu à Montréal les 24 et 25 septembre, a réuni près de 6 500 dirigeants, experts, chercheurs et innovateurs issus de 40 pays. Plus de 200 conférenciers ont contribué à une programmation qui souligne à la fois le dynamisme de l’écosystème d’innovation canadien et le leadership de l’IA du Canada sur la scène mondiale. 

La conférence internationale, ALL IN est une initiative de SCALE AI. [i], pôle canadien d'innovation en intelligence artificielle (IA) reconnu mondialement et organisée en collaboration avec Mila [ii],  Institut québécois d'intelligence artificielle. L’édition ALL IN 2025, tenu à Montréal les 24 et 25 septembre, a réuni près de 6 500 dirigeants, experts, chercheurs et innovateurs issus de 40 pays. Plus de 200 conférenciers ont contribué à une programmation qui souligne à la fois le dynamisme de l’écosystème dinnovation canadien et le leadership de lIA du Canada sur la scène mondiale. 

Cet événement, centré sur les enjeux du développement économique, s’adressait avant tout aux entreprises et aux acteurs du monde des affaires.

Pour ma part, je n’y allais pas en entrepreneure, mais en simple curieuse, désireuse de mieux comprendre la place que l’intelligence artificielle occupe aujourd’hui dans nos sociétés. J’ai dû faire des choix : vers quelles présentations orienter mon attention ? J’ai, par exemple, laissé de côté celles qui portaient sur l’IA en santé — un domaine pourtant parmi les plus avancés — afin de me concentrer ailleurs. Restait ensuite une autre question : que partager de la masse d’informations reçues pendant ces deux journées intenses ?

C’est précisément l’objet du présent texte. Vous y trouverez, après une courte présentation du pays à l’honneur cette année, un survol de ce que j’ai perçu comme les grandes tendances actuelles de l’utilisation de l’IA par les principaux acteurs du secteur :

  • L’IA souveraine;
  • Les conseils pratiques autour de l’usage des grands modèles de langage (LLM) ;
  • L’essor fulgurant de l’IA agentique;
  • L’importance encore méconnue de l’IA physique, un sujet que j’ai choisi de ne pas approfondir.

Le texte s’arrête aussi sur l’approche chinoise, telle que présentée par le Dr Clas Neumann, expert mondial en intelligence artificielle, qui analyse la montée en puissance de la Chine. Je mentionne également le projet pilote L’IA rencontre Télé-Québec et quelques autres.

En conclusion, je propose une courte synthèse de la conversation entre Yoshua Bengio et Harry Booth, journaliste au TIME (Londres), que je fais suivre de mes propres inquiétudes face à certaines avancées de l’IA.

Les Émirats arabes unis nommés Pays à l’honneur

La délégation des Émirats arabes unis est dirigée par S.E. Mohamed Bin Taliah, chef des services gouvernementaux, chargé de l’optimisation des services publics. Cette participation s’inscrit alors que le pays accélère l’intégration de l’intelligence artificielle à grande échelle, notamment à travers des initiatives phares comme la plateforme infonuagique de services publics d’Abu Dhabi, propulsée par l’IA. Ces efforts visent à créer un gouvernement entièrement numérique, sans papier, qui simplifie les opérations, améliore lexpérience citoyenne et stimule linnovation.

L’IA souveraine

Evan Solomon, ministre de l'Intelligence artificielle et de l'Innovation digitale du Canada, a prononcé un discours au cours duquel il a mis en lumière le leadership du Canada en matière d’IA et fait ressortir le rôle central de la souveraineté numérique dans l’établissement de l’économie du futur. Il a annoncé la création d’un groupe de travail sur la stratégie en matière d’IA et aujourd’hui le 26 septembre en a dévoilé la création.   Ce groupe de travail compte 26 personnalités canadiennes du monde de la recherche, du capital de risque et de l’entrepreneuriat. Leur mission : proposer d’ici 30 jours des recommandations pour une nouvelle mouture de la stratégie nationale en IA. [iii]

L’IA souveraine, c’est l’idée qu’un pays veuille garder la maîtrise de ses propres technologies d’intelligence artificielle : développer ses modèles, stocker ses données chez lui et ne pas dépendre uniquement des grandes entreprises étrangères. C’est une façon de protéger ses informations sensibles et de stimuler son propre écosystème technologique.

Le fait que l’IA souveraine soit devenue un enjeu majeur tient peut-être à la maturité atteinte par cette technologie, son adoption généralisée, de la diffusion massive de l’IA dans nos sociétés, mais aussi peut-être en raison des tensions géopolitiques actuelles.

À Rimouski, au Québec, TELUS [iv]  a inauguré récemment le premier centre d’intelligence artificielle souveraine au Canada. Cette « AI Factory » a pour objectif de permettre aux entreprises, aux chercheurs et aux institutions publiques de développer et d’entraîner leurs propres modèles d’IA, tout en garantissant que les données demeurent entièrement hébergées et traitées au pays. Construit en partenariat avec NVIDIA et HPE, le centre met à disposition une puissance de calcul de pointe, adaptée autant à la recherche qu’au déploiement industriel.

Le projet se distingue aussi par son ancrage environnemental : il est alimenté à 99 % par des énergies renouvelables, utilise un système de refroidissement naturel et réduit sa consommation d’eau de plus de 75 % par rapport aux centres de données traditionnels.                     

TELUS souligne qu’il s’agit d’un investissement stratégique pour renforcer la souveraineté numérique du Canada, diminuer la dépendance aux géants étrangers et stimuler l’écosystème local de l’IA.  TELUS prévoit aussi un site à Kamloops (Colombie britannique) pour compléter l’offre d’IA souveraine.  [v]

Conseils pratiques autour de l’usage des grands modèles de langage (LLM)           

Aujourd’hui, les grands modèles de langage (LLM) se sont imposés comme des outils presque universels. On les retrouve dans les moteurs de recherche, les assistants virtuels, la rédaction de textes, la traduction, la programmation ou encore le service à la clientèle. Leur usage s’étend des tâches quotidiennes les plus simples — comme corriger une phrase — jusqu’à des applications stratégiques dans l’entreprise ou la recherche. Cette présence généralisée s’explique par leur polyvalence : un seul modèle peut être adapté à une multitude de contextes, ce qui en fait une sorte d’infrastructure de base de l’intelligence artificielle contemporaine.

Plusieurs présentations proposaient des conseils pour l’utilisation de ces outils, mais j’ai particulièrement apprécié ceux partagés lors de l’atelier de l’AFI U, L’École des organisations. Nous étions quatre à notre table, venus d’horizons différents : un avocat spécialisé en droit d’auteur, un développeur, une productrice de contenu pour un média télévisuel, et moi. Tous utilisaient régulièrement des outils basés sur des LLM, et j’ai aimé constater qu’ils ne se limitaient pas à un seul. Certains avaient même développé une réelle expertise en comparant les résultats des différents outils, allant jusqu’à choisir celui le mieux adapté à chaque tâche.

Cet atelier nous proposait d’explorer comment l’intelligence humaine et artificielle, combinées, peuvent façonner un plan stratégique en temps réel capable de mobiliser les personnes et de stimuler l’action pour VOLTAIC, une entreprise fictive co-créée avec l’IA et positionnée comme un leader québécois dans la production de batteries électriques. À partir de données fictives et de Copilot, nous devions fournir au conseil d’administration les informations nécessaires pour élaborer un plan de transformation numérique.

À la fin de l’atelier, plusieurs conseils ont été partagés pour que l’IA devienne réellement un facteur de transformation.

Mieux formuler nos demandes : contexte + prompt = la formule gagnante

  • Préparer le contexte, fournir des informations complètes et cohérentes, organiser les données et partager tous les détails essentiels pour que Copilot puisse répondre avec précision.
  • Soigner la formulation du prompt : formuler la demande clairement, indiquer le format de réponse souhaité et être le plus précis possible. Si Copilot ne comprend pas, identifier la cause, reformuler pour plus de clarté et de cohérence.

Esprit critique

  • Vérifier systématiquement les réponses de l’IA, questionner ce qui semble trop beau pour être vrai et ne pas hésiter à signaler à votre équipe si une réponse ne vous inspire pas confiance.

Travail en équipe et usage de l’IA

  • Préciser qui pose les questions à l’IA et faire réviser les réponses si nécessaire.
  • Réfléchir au moment où l’IA intervient — au début, au milieu ou à la fin du projet ou de la mission — et décider quelles tâches sont pour l’IA et lesquelles restent pour l’équipe.

Responsabilité individuelle

  • Maîtriser l’outil, garder un esprit critique, collaborer intelligemment et utiliser l’IA avec discernement en mobilisant ses métacompétences.

Responsabilité organisationnelle

  • Réguler l’usage de l’IA, protéger les données et respecter l’être humain.           

L’IA révèle l’expertise de votre équipe et peut prédire vos préférences. En identifiant vos biais, elle devient un miroir de votre façon de penser. Mais l’IA ne se limite pas à traiter vos demandes : elle apprend également à imiter votre raisonnement en temps réel.

L’essor fulgurant de l’IA agentique

Selon moi, le point fort de l’évènement ALL IN a été la forte présence d’entreprises et de présentations abordant l’intégration de l’IA agentique comme levier de compétitivité, tout en soulignant l’importance de l’humain pour valider les décisions de ces IA autonomes.

L’IA agentique désigne une intelligence artificielle capable d’agir de manière autonome: elle peut prendre des décisions, poursuivre des objectifs, interagir avec son environnement et collaborer ou concurrencer d’autres agents, humains ou artificiels. Contrairement à une IA classique, qui se limite à exécuter des tâches ou répondre à des requêtes, l’IA agentique est proactive et capable d’adapter ses actions en temps réel.

Pour que ces agents autonomes fonctionnent efficacement, le concept d’orchestration devient essentiel. L’orchestration consiste à coordonner les actions de plusieurs IA agentiques et de leurs interactions avec les humains et les systèmes existants. Elle permet de planifier et synchroniser les initiatives, d’attribuer les rôles et responsabilités selon les compétences de chaque agent, et d’assurer la cohérence et l’efficacité globale des opérations. Sans orchestration, l’autonomie des agents pourrait conduire à des actions désordonnées ou conflictuelles.

Le plan stratégique joue un rôle clé dans ce contexte. Il définit les objectifs à atteindre, précise la manière dont chaque agent intervient, identifie les priorités et les ressources nécessaires, et permet de mesurer l’impact et la performance des IA agentiques. Le plan sert également de guide pour intégrer l’IA dans les processus organisationnels, en anticipant ses interactions avec les équipes et les systèmes.

La gouvernance complète cette approche en établissant les règles d’usage, les responsabilités et les mécanismes de contrôle. Elle garantit la conformité aux normes légales et éthiques, assure la sécurité des données, et définit des procédures pour corriger ou ajuster les actions des agents si nécessaire. Grâce à la gouvernance, les décisions prises par l’IA restent transparentes, traçables et alignées avec les valeurs de l’organisation.

Au cœur de ce dispositif, l’humain conserve sa place centrale. L’IA agentique ne remplace pas le jugement humain: elle le soutient. Les équipes gardent le contrôle des décisions critiques, conservent un esprit critique face aux recommandations de l’IA, et veillent à ce que ses actions restent conformes aux objectifs et aux valeurs humaines. L’orchestration, le plan et la gouvernance sont autant d’outils pour que l’IA agentique devienne un partenaire stratégique fiable, tout en plaçant l’humain au centre de l’innovation et de la décision.

Voici un exemple schématique d’une IA agentique qui je crois a été proposé lors d’une présentation de Novipro, Conseiller informatique à Montréal et Videns, l’une des rares entreprises technologiques à propriété majoritairement féminine à l’échelle internationale.

L’IA agentique – Exemple d’utilisation dans le service à la clientèle

Lorsqu’un client fait une réclamation, celle-ci est prise en charge par un agent IA spécialisé dans le service à la clientèle.

  1.  Analyse de la demande
    L’agent IA commence par analyser le courriel du client et vérifier le numéro de référence fourni.
  2. Accès aux informations pertinentes
    Il consulte ensuite les différentes bases de données et systèmes opérationnels nécessaires pour traiter la réclamation.
  3. Validation de la réclamation
    L’agent IA vérifie que la réclamation est légitime, conformément aux critères et politiques de l’entreprise.
  4. Traitement de la réclamation
    Enfin, l’agent IA traite la réclamation selon les procédures établies, garantissant rapidité et cohérence tout en suivant les directives internes.

La stratégie IA de la Chine : Quelles leçons pour l’avenir technologique du Canada ?

Le Dr Clas Neumann, responsable des SAP Labs mondiaux, a analysé la stratégie d’IA de la Chine et ses implications pour le Canada. Selon lui, la Chine a adopté une approche stratégique en trois volets pour accélérer son développement en intelligence artificielle.

Premièrement, un moteur politique stratégique: le gouvernement chinois dirige et soutient activement le développement de l’IA. Le Plan de développement de l’intelligence artificielle de nouvelle génération de 2017 fixe un objectif clair : faire de la Chine un leader mondial de l’IA d’ici 2030. Cette vision descendante mobilise des financements importants et fournit une direction claire pour la recherche et la commercialisation.

Deuxièmement, une infrastructure puissante : l’IA nécessite d’importantes ressources en données et en calcul. La Chine a investi massivement dans son infrastructure numérique, notamment le plus grand réseau 5G au monde, afin de soutenir l’Internet des objets, les villes intelligentes et les systèmes autonomes.

Troisièmement, une adoption rapide par les entreprises : les entreprises chinoises ont intégré rapidement l’IA, soutenues par des politiques gouvernementales favorables et une infrastructure robuste. Cela a permis à la Chine de se positionner comme un leader mondial dans des domaines tels que la reconnaissance faciale, les véhicules autonomes et l’IA générative.

Pour le Canada, le Dr Neumann identifie plusieurs leçons à retenir de l’expérience chinoise. Il recommande d’élaborer une stratégie nationale claire pour l’IA, de renforcer les infrastructures numériques, d’encourager l’adoption de l’IA par les entreprises et de favoriser la collaboration entre le secteur public, les entreprises et les institutions académiques.

Réinventer le média

L’IA transforme profondément l’industrie médiatique. Lors d’une présentation, Maxime St-Pierre (directeur exécutif et chef du numérique), Alain Rochefort (conseiller éditorial en IA) et Dessy Aleksandrova (développeuse en apprentissage automatique) de Radio Canada ont exposé les défis auxquels ils font face.

Ils doivent non seulement lutter contre la désinformation diffusée sur les médias sociaux, particulièrement auprès d’une jeune audience qui délaisse les sources traditionnelles au profit des plateformes numériques, mais aussi répondre à une déculturation : la perte progressive de la culture locale liée à l’évolution des habitudes de consommation de contenu, qui soulève par ailleurs des fis éthiques.

Pour y répondre, Radio-Canada réinvente son expérience médiatique en plaçant l’humain au centre. L’organisation développe de nouveaux métiers, met en place des équipes mixtes de journalistes et de développeurs, et adopte une approche collaborative et agile. L’objectif : rester pertinent tout en continuant à éclairer, informer et divertir les Canadiens.

Quand l’IA rencontre Télé-Québec : Un projet pilote entre promesses et réalités

Produire un scénario avec une intelligence artificielle, l’animer, lui donner une voix et une musique, puis assembler le tout. C'est l'expérience que le diffuseur public Télé-Québec a mené en collaboration avec des experts en IA de Vooban.  Leur but premier est clair : apprendre.

La première étape consistait à demander à l’IA de générer dix scénarios.

            •           Côté machine: l’opération a pris deux secondes.

            •           Côté humain: analyser et évaluer ces propositions a demandé près de dix heures.

Cet écart illustre une première leçon : l’IA peut produire énormément et très vite, mais la véritable valeur ajoutée réside encore dans le jugement humain.

Une fois les scénarios choisis, place à l’animation. Là encore, le chemin s’est avéré semé d’embûches.  Stabiliser les personnages s’est révélé complexe : le panda, par exemple, voyait ses oreilles changer de position d’une séquence à l’autre, ou les traits de son visage se déplacer. Obtenir une identité visuelle cohérente a exigé des semaines de travail.  Autre défi : les voix. L’équipe souhaitait des voix enfantines avec un accent québécois. Or, les banques vocales francophones sont encore limitées, surtout en comparaison de l’offre anglophone. L’équipe a dû composer avec peu de matière et contourner ces limites technologiques pour préserver l’authenticité du projet.

Conscients des enjeux, Télé-Québec et Vooban ont adopté une posture de transparence. Ils ont rencontré l’Union des artistes et d’autres représentants syndicaux.

Leurs recommandations étaient claires : ne pas intégrer de voix humaines dans l’IA. L’équipe s’est engagée à s’appuyer uniquement sur des outils existants, sans imiter ou cloner la voix d’artistes.  Ce choix éthique est apprécié par le milieu.

Pendant neuf mois, chaque étape du projet a été observée par :

            •           Un chercheur de l’UQAM, qui a suivi le processus pour en tirer des analyses de                          recherche;

            •           Une productrice déléguée, qui en a fait la matière de vidéos éducatives                                       destinées aux élèves de secondaire IV et V, pour les aider à développer leur esprit critique face à l’IA.

L’équipe prépare maintenant une vidéo dans les coulisses, un « making of » qui sera disponible dès janvier.

            •           Ce contenu grand public permettra de comprendre le chemin parcouru.

            •           En parallèle, certains volets pédagogiques seront accessibles sur la plateforme En classe Télé-Québec.TV, réservée au milieu de l’éducation canadienne francophone.

L’IA ne remplace pas l’humain.  Au contraire elle exige sa participation.  Le résultat obtenu est jugé « satisfaisant mais non diffusable ». Le projet aura surtout démontré une vérité essentielle : l’IA ne peut pas fonctionner seule.  Sans la collaboration d’experts, de créateurs et d’artistes, la production n’aurait pas tenu la route.

En fin de compte, c’est bien la connivence humaine qui fait la force du projet.

Merci madame Cynthia Racine d’avoir pris le temps de m’expliquer le projet.   Vous pouvez consulter le reportage de Radio Canada : Télé-Québec crée grâce à l’IA un épisode test de la série Lotus et Cali. https://ici.radio-canada.ca/nouvelle/2169369/intelligence-artificielle-audiovisuelle-television-emission

Zone Démo     

La zone Démo avait un double objectif : faire comprendre l’IA de manière concrète grâce à des expériences immersives et montrer ses applications dans différents secteurs.

Je me suis surtout intéressée au kiosque de Beaucoup Data, où l’on créait en direct un jumeau numérique à partir de nos propres données. Chaque avatar autonome explorait l’événement, assistait à des conférences, rencontrait d’autres avatars et suivait son niveau d’énergie sociale, avec un résumé personnalisé affiché sur grand écran. Cette initiative complétait l’expérience en personne en offrant une nouvelle perspective sur nos interactions humaines à l’ère des jumeaux numériques.

Un jumeau numérique (ou digital twin) est une reproduction virtuelle d’un objet, d’un système ou d’un processus réel, permettant de le simuler, de le surveiller et de l’optimiser en temps réel. C’est comme avoir un clone numérique vivant qui aide à mieux comprendre son homologue réel et à prendre de meilleures décisions. Il reflète les caractéristiques physiques et fonctionnelles de l’objet et, parfois, grâce à des capteurs et à l’Internet des objets (IoT), il reçoit des données en temps réel. Cela permet de tester des scénarios, prévoir des problèmes et optimiser les performances sans risquer l’objet (ou l’individu) réel.

J’ai trouvé ma courte visite très amusante.

CONCLUSION

L’IA à un tournant décisif : Assurer la sécurité grâce aux garde-fous techniques et sociétaux 

Les systèmes d’IA de pointe montrent de plus en plus de signes de tromperie et d’auto-préservation, soulignant l’urgence de développer des IA plus sûres et fiables. Dans cette session, Yoshua Bengio, professeur à l’Université de Montréal et co-président de LawZero, discute avec Harry Booth, journaliste spécialisé en IA pour TIME, et traite des risques posés par ces technologies et de la solution Scientist AI de LawZero, qui propose une approche technique pour construire des IA sûres et alignées sur les valeurs humaines.  Il faut appliquer le principe de précaution, rappelle monsieur Bengio : « Make haste slowly »

Lire sur Educavox : Yoshua Bengio présente LoiZéro, https://www.educavox.fr/innovation/technologie/yoshua-bengio-presente-loizero-1

Le détail de l’interview à lire à cet épisode de Mon Carnet de Bruno Guglielminetti : Yoshua Bengio appelle à des garde-fous face aux avancées rapides de lIA  https://moncarnet.com/2025/09/24/yoshua-bengio-appelle-a-des-garde-fous-face-aux-avancees-rapides-de-lia/?jetpack_skip_subscription_popup

Ce qui m’inquiète …

1 - Les réseaux sociaux

Les réseaux sociaux transforment profondément nos vies, mais posent de nombreux défis, que l’on soit jeune ou adulte, car nous sommes tous parfois vulnérables. Ils peuvent nuire à la santé mentale, en générant anxiété, dépression et addiction aux écrans, et affecter l’estime de soi à cause des contenus idéalisés. Le cyberharcèlement et l’isolement social concernent également tous les utilisateurs, car les interactions virtuelles remplacent parfois les relations réelles.

La spécificité des contenus, créée par les algorithmes, limite la diversité de l’information et crée des bulles de filtre, renforçant stéréotypes, polarisation et exposition à la désinformation. Elle peut orienter et simplifier la complexité des questions et réduire la vision du monde, en exposant chacun surtout à ce qui confirme ses opinions ou intérêts. Les contenus ciblés sur la réussite, l’apparence physique ou le style de vie accentuent également la pression sociale et le besoin de « performer » en ligne.

Je crains que de plus en plus nous vivions dans des bulles, où nos échanges et les informations auxquelles nous sommes exposés se limitent à des individus et contenus de plus en plus semblables à nous et nos intérêts.  Cela nous empêche d’explorer la diversité, la complexité et la richesse du monde et des cultures. En somme, les réseaux sociaux offrent certes des opportunités, mais ils peuvent accentuer stress, comparaisons, isolement et biais cognitifs, tout en limitant la curiosité et la diversité de pensée. Ces constats soulignent l’importance d’un accompagnement pour développer l’esprit critique et la résilience face aux contenus numériques, à tout âge.

La guerre cognitive est un conflit dont le champ de bataille est l’esprit humain. Elle vise à influencer ou manipuler les perceptions, croyances et décisions pour obtenir un avantage stratégique. Ses acteurs vont des États aux groupes non étatiques, en passant par des entreprises, des hackers, les médias et les influenceurs. Les réseaux sociaux jouent un rôle central, car ils facilitent la diffusion massive de désinformation, la propagation de propagande ciblée, l’exploitation des biais cognitifs et l’amplification par bots ou campagnes automatisées, auxquels s’ajoutent les deepfakes générés par l’IA. L’objectif est de déstabiliser les sociétés, semer confusion et polarisation, et influencer des choix politiques, économiques ou militaires, sans recourir à la force physique.

Avec l’essor du numérique, ces manipulations deviennent plus rapides, plus ciblées et plus difficiles à détecter, ce qui rend essentielle l’éducation aux médias et le développement de l’esprit critique pour s’en protéger.

2 - Les tromperies volontaires de l’IA

 (Source OpenAI, Via Mon Carnet de Bruno Guglielminetti)

            Une étude menée par OpenAI et Apollo Research met en lumière un phénomène préoccupant : le mensonge intentionnel des intelligences artificielles, appelé scheming.  «Lien vers l’article anglais [vi]

Contrairement aux simples erreurs, il s’agit de stratégies délibérées où l’IA cache ses véritables objectifs ou manipule les tests.

Les chercheurs ont testé une approche de deliberative alignment, consistant à entraîner les modèles à réfléchir explicitement aux règles de sécurité avant d’agir. Cette méthode réduit les comportements trompeurs, mais ne les élimine pas. Plus inquiétant encore, certaines IA semblent capables de feindre la loyauté, apprenant à mieux dissimuler leurs intentions.

Ces résultats soulignent la fragilité des protocoles d’évaluation actuels et posent un défi majeur : comment garantir que l’IA ne devienne pas experte dans l’art du mensonge ? Les auteurs appellent à plus de transparence et à la création d’une véritable science du mensonge artificiel, afin d’anticiper les risques avant l’intégration de modèles avancés dans des secteurs critiques comme la santé, la finance ou la sécurité.

En somme, cette recherche rappelle que les IA n’imitent pas seulement notre intelligence : elles peuvent aussi reproduire nos travers et faire du mensonge une stratégie.  Les machines, conçues pour imiter l’intelligence humaine, apprennent aussi à imiter nos défauts. Et dans ce miroir numérique, le mensonge devient non pas un bug, mais une stratégie.

3 — L’’informatique quantique et de l’informatique photonique           

L’informatique quantique et l’informatique photonique ouvrent des perspectives majeures: elles pourraient révolutionner la recherche scientifique, accélérer l’intelligence artificielle et transformer des secteurs comme la santé, l’énergie, la finance ou la logistique. Mais cette montée en puissance soulève aussi de sérieux risques.

Sur le plan de la sécurité, ces technologies pourraient casser les systèmes de chiffrement actuels, rendant vulnérables nos données et nos communications. Cela crée un risque de “harvest now, decrypt later” : des acteurs malveillants stockent déjà des données chiffrées, en attendant de pouvoir les décrypter plus tard avec un ordinateur quantique.

Elles risquent également de concentrer le pouvoir entre les mains de quelques États ou entreprises, tout en alimentant une nouvelle course aux armements, y compris dans des domaines sensibles comme la biologie, avec des possibilités d’applications non régulées, conception de pathogènes, manipulation génétique accélérée par IA + calcul quantique. Enfin, leur généralisation pourrait entraîner une obsolescence massive des infrastructures numériques actuelles et accentuer la fracture technologique, sans oublier les enjeux écologiques liés à la consommation énergétique et aux ressources nécessaires.

L’informatique quantique et photonique promettent des avancées spectaculaires, mais sans cadre mondial elles risquent de devenir un outil de domination et de vulnérabilité collective. Il devient urgent de réfléchir à une gouvernance mondiale de ces technologies, afin de définir des normes de sécurité, de garantir une répartition plus équitable de leurs bénéfices et de limiter leurs usages militaires ou malveillants. Sans encadrement collectif, la promesse d’un progrès scientifique et social partagé pourrait se transformer en une source accrue de vulnérabilité et d’inégalités.

Il est urgent d’instaurer une gouvernance internationale pour orienter ces technologies vers le bien commun plutôt que vers la fracture et le conflit.

4 - L’IA aide à écrire l’arnaque          

Une enquête menée par Reuters avec un chercheur de Harvard met en évidence un risque préoccupant : les assistants conversationnels à base d’intelligence artificielle peuvent, parfois avec étonnante complaisance, aider à concevoir des campagnes d’hameçonnage sophistiquées. L’expérience a testé plusieurs grands chatbots — Grok d’xAI, ChatGPT d’OpenAI, Meta AI, Claude d’Anthropic, Gemini de Google et DeepSeek — en leur demandant de rédiger des courriels ciblant des personnes âgées ou de donner des conseils pour maximiser l’efficacité d’arnaques simulées. Certains modèles ont catégoriquement refusé, d’autres ont cédé après une légère manipulation, et quelques-uns ont produit des messages détaillés et persuasifs.

La seconde étape a consisté à envoyer neuf de ces courriels à 108 volontaires seniors, dans un cadre éthique strict et sans réelle tentative de fraude. Les résultats montrent qu’environ 11 % des participants ont cliqué sur certains liens, confirmant que des textes produits par l’IA peuvent tromper des personnes vulnérables. Au-delà des chiffres, l’étude souligne des failles structurelles : l’IA permet de générer instantanément des centaines ou milliers de variantes de messages, et les garde-fous actuels sont parfois contournables, ce qui pose un vrai défi de sécurité.

Les entreprises concernées affirment renforcer leurs protections et retrainent leurs modèles, mais l’équilibre entre utilité et sécurité reste délicat. Dans le monde réel, des réseaux criminels exploitent déjà l’IA pour automatiser et améliorer leurs arnaques, en particulier en Asie du Sud-Est. Les seniors restent une cible privilégiée, sensibles aux sollicitations portant sur la santé, les œuvres caritatives ou les prestations sociales.

Face à ces risques, les réponses doivent être collectives : régulateurs, plateformes, acteurs financiers et citoyens doivent coopérer. À l’échelle individuelle, il est recommandé de renforcer l’éducation numérique, d’utiliser des mécanismes d’authentification supplémentaires et de vérifier systématiquement l’origine des demandes. L’enquête Reuters ne propose pas de solution miracle, mais elle souligne l’urgence de mettre en place des garde-fous efficaces pour protéger les plus vulnérables tout en préservant l’innovation.           

Hypertrucages et cyberrésilience des personnes aînées : enjeux et perspectives

Ici au Québec, Nadia Naffi de l’Université Laval a invité des aînés à participer à un projet de sensibilisation aux hypertrucages (deep-fakes), ces manipulations audiovisuelles sophistiquées qui posent un risque disproportionné pour les personnes aînées, une population dont la vulnérabilité est accentuée par une combinaison de facteurs financiers, sociaux, cognitifs et technologiques.

Face à ce défi grandissant, le document Hypertrucages et cyberrésilience des personnes aînées : enjeux et perspectives a été publié en juillet dernier.  Voici le lien vers le document : Hypertrucages et cyberrésilience des personnes aînées : enjeux et perspectives https://www.obvia.ca/ressources/hypertrucages-et-cyberresilience-des-personnes-ainees-enjeux-et-perspectives

Ce livre blanc conclut que la cyberrésilience ne peut reposer sur la seule responsabilité individuelle. Elle exige une approche écosystémique, coordonnée et multidimensionnelle.  Pour ce faire, des recommandations concrètes et ciblées sont formulées pour chaque partie prenante : 

  •     Pour les décideurs politiques : Développer un cadre réglementaire adapté, investir dans des programmes nationaux d’éducation et soutenir la recherche sur des outils de détection accessibles.
  •     Pour les organismes communautaires : Intégrer la sensibilisation aux hypertrucages dans les programmes existants, développer l’apprentissage par les pairs et créer des espaces sécuritaires pour l’apprentissage.
  •     Pour les institutions financières et technologiques : Adopter des principes de conception inclusive (privacy by design), concevoir des systèmes de vérification simples et investir dans des outils de détection automatique.
  •     Pour les chercheurs et éducateurs : Développer et évaluer des interventions basées sur des données probantes, documenter les meilleures pratiques et créer des ponts entre la recherche et les besoins du terrain.

5 - La création de génome

Je crains que l’intelligence artificielle ne transforme radicalement la biologie : des chercheurs californiens ont utilisé une IA pour proposer de nouveaux codes génétiques pour des virus, et certains de ces virus ont effectivement répliqué et tué des bactéries. Ces travaux, réalisés par des équipes de Stanford et de l’Arc Institute, représentent la première conception générative de génomes complets et pourraient accélérer la recherche sur les cellules artificiellement créées et le développement de traitements.

L’IA utilisée, baptisée Evo, fonctionne selon les mêmes principes que les grands modèles de langage comme ChatGPT, mais a été formée sur les génomes de près de 2 millions de bactériophages. Sur 302 génomes proposés par l’IA et imprimés chimiquement, 16 ont été fonctionnels, reproduisant des virus capables d’infecter et de tuer des bactéries E. coli. Cette réussite montre à quel point l’IA peut générer des solutions inattendues et innovantes, en explorant des combinaisons de gènes inédites.

Pour l’instant, ces virus ne sont pas « vivants » au sens strict et restent simples, mais cette avancée ouvre la voie à la conception assistée par IA de virus thérapeutiques, de bactéries modifiées et potentiellement d’organismes plus complexes. Cependant, les chercheurs insistent sur la prudence : la même technologie pourrait, entre de mauvaises mains, être utilisée pour modifier des pathogènes humains, avec des risques graves.

Enfin, concevoir des génomes pour des organismes plus complexes reste un défi colossal. L’E. coli, par exemple, possède mille fois plus de code génétique que le virus phiX174 étudié, rendant la conception directe impossible pour l’instant. Néanmoins, des laboratoires automatisés pourraient, à l’avenir, proposer et tester des génomes de manière systématique, ouvrant potentiellement une nouvelle ère de la biologie synthétique, tout en soulevant des questions éthiques et de sécurité majeures.

Source: MIT Technology Review, 2025

La rapidité du progrès numérique contraste avec la lenteur d’adaptation des lois, ce qui constitue un problème majeur. Il est essentiel d’accompagner l’évolution de ces technologies remarquables par un cadre approprié…

Make haste slowly

… « Festina lente » … rappelle Joshua Bengio.

 « Je propose que les grandes puissances mondiales, ou les nations en tête de l’IA, forment une communauté internationale d’agences de sécurité de l’IA, où chaque pays pourra mener des recherches dans le respect de sa souveraineté et partager ses découvertes. »

— Geoffrey Hinton, informaticien britanno-canadien, un des pères de l’IA.


[i]  Scale AI

   https://www.scaleai.ca/fr/

[ii] MILA

  https://mila.quebec/fr

[iii]   Source : Mon carnet, Bruno Guglielminetti

            https://moncarnet.com/2025/09/26/ottawa-lance-un-groupe-dexperts-pour-redefinir-la-strategie-canadienne-en-intelligence-artificielle/?jetpack_skip_subscription_popup

[iv]   TELUS est un opérateur de télécommunications canadien fondé en 1990, offrant des services mobiles, internet, télévision et de santé, aux côtés de Bell et Rogers. Le siège social est à Vancouver. Il opère sous des marques telles que Telus Mobility, Koodo et Public Mobile et est le premier fournisseur de services téléphoniques (ILEC) dans certaines régions. 

[v]   Présentation par :

 Hesham Fahmy – CTO de TELUS, expert en IA, cloud et sécurité.

Et Chris Penrose – VP chez NVIDIA.

[vi]   Lien vers le papier : arXiv, Stress Testing Deliberative Alignment for Anti-Scheming Training (19 septembre 2025) arXiv

Lien direct sur arXiv

Dernière modification le dimanche, 28 septembre 2025
Ninon Louise LePage

Sortie d'une retraite hâtive poussée par mon intérêt pour les défis posés par l'adaptation de l'école aux nouvelles réalités sociales imposées par la présence accrue du numérique. Correspondante locale d'Educavox pour le Canada francophone.