Imprimer cette page

Le World Summit AI 2025 s’est tenu les 15 et 16 avril au Palais des Congrès de Montréal. D’autres éditions auront lieu cette année : à San Francisco en juin, à Amsterdam en octobre, puis au Qatar en décembre. Présenté par Microsoft comme un terrain fertile pour les idées les plus audacieuses, le sommet se positionne comme un observatoire mondial des futures percées technologiques et scientifiques.

Beaucoup considèrent le Sommet mondial sur l’IA comme l’épicentre de l’innovation en la matière — un carrefour où se rencontrent les ruptures technologiques, les transformations sociétales et les mutations du monde de l’entreprise. Chaque édition aborde l’IA sous un angle singulier, ce qui est crucial à une époque où la vitesse des progrès soulève d'importants débats éthiques, notamment autour de la vie privée et de la confiance du public. Les décisions qui s’y prennent façonnent dès aujourd’hui l’héritage que l’intelligence artificielle laissera aux générations futures, faisant de 2025 une année charnière, entre réflexion et choix déterminants.

Ce dossier propose d’abord un éclairage sur Inspired Minds, l’organisateur du sommet, suivi d’un rappel des différentes formes que peut prendre l’IA, en les mettant en perspective avec l’informatique classique. S’ensuivent des temps forts du programme, quelques prises de parole marquantes. Des choix influencés par mes réflexions et mes préoccupations personnelles.

Le texte a été rédigé avec l’assistance de ChatGPT.

Inspired Minds, l’architecte des sommets de l’IA

Créé en 2017, Inspired Minds est à l’origine des « World Summit » sur l’intelligence artificielle. L’organisme fédère une communauté internationale de plus de 300 000 membres : chercheurs, ingénieurs, dirigeants, entrepreneurs, startups, ONG et institutions de plus de 160 pays. Sa mission est claire : mettre en lumière les innovations technologiques les plus marquantes, connecter un écosystème mondial pour favoriser un impact positif, et aider les décideurs à relever les grands défis du monde contemporain, qu’ils soient économiques, scientifiques ou sociétaux. Aligné sur les Objectifs de développement durable des Nations Unies, Inspired Minds milite pour un progrès technologique inclusif, éthique et sécurisé. L’organisation collabore notamment avec l’ONU, l’OMS, la Royal Society, l’EU AI Gov et plusieurs gouvernements nationaux.

Avec son réseau d’influence et ses partenariats stratégiques, Inspired Minds s’impose aujourd’hui comme un acteur clé de la scène mondiale de l’intelligence artificielle.

Un rappel : Informatique classique versus Intelligence artificielle

L’informatique classique : un pouvoir déterminé

L’informatique dite « classique » repose sur une logique d’instructions explicites : chaque action exécutée par la machine est précisément définie par un programme conçu à l’avance. Le système ne prend aucune décision par lui-même ; il suit à la lettre ce que le développeur a prévu. On retrouve ce modèle dans des outils familiers comme une calculatrice, un tableur tel qu’Excel, un logiciel de gestion de stocks ou encore un site web statique.

Ce type d’informatique se caractérise par plusieurs traits essentiels :

  • Une programmation déterministe : chaque étape est écrite ligne par ligne, sans ambiguïté.
  • Un pouvoir limité : la machine exécute les ordres, sans jamais en dévier.
  • Une totale transparence : le processus est traçable, chaque action peut être comprise et expliquée.
  • Une prédictibilité complète : le comportement du système est entièrement anticipable.

Dans ce modèle, le pouvoir n’est pas dans la machine, mais à l’extérieur. Il appartient au programmeur, ou à l’organisation qui conçoit le logiciel. La technologie est un outil, sans autonomie, au service d’un cadre rigide et maîtrisé.

L’intelligence artificielle : un pouvoir émergent

Contrairement à l’informatique classique, l’intelligence artificielle (IA) ne se contente pas d’exécuter des instructions prédéfinies. Elle apprend à partir de données, détecte des régularités, et peut produire des réponses nouvelles — parfois inattendues — dans des contextes complexes. Un assistant vocal, une voiture autonome, une application de traduction automatique ou un moteur de recommandation illustrent cette capacité d’adaptation. Ces systèmes n’ont pas été programmés pour chaque situation possible : ils ont été entraînés pour réagir à une diversité de cas, y compris ceux qu’ils n’ont jamais rencontrés auparavant.

Les caractéristiques de l’IA reflètent cette transformation :

  • Une logique probabiliste : les décisions sont basées sur des corrélations, pas sur des règles fixes.
  • Un pouvoir d’ajustement : l’IA peut modifier son comportement à mesure qu’elle apprend.
  • Une opacité relative : les processus internes, notamment dans les modèles complexes comme les réseaux de neurones, sont souvent difficiles à interpréter.
  • Une imprévisibilité partielle : certaines réponses peuvent surprendre, même les concepteurs du système.

Dans cette logique, le pouvoir ne réside plus uniquement dans le programmeur. Il se déplace partiellement dans le système lui-même, capable d’évoluer de manière autonome. L’IA devient ainsi un acteur à part entière dans certaines prises de décision, soulevant des questions majeures sur la responsabilité, le contrôle et la confiance.

Différences de pouvoir concrètes

Aspect Informatique classique Intelligence artificielle
Contrôle Totalement humain Partiellement délégué aux algorithmes
Capacité d’adaptation Nulle (rigide) Élevée (s’adapte à des situations nouvelles)
Influence sociale Faible (outil passif) Forte (modifie comportements, opinions, choix)
Complexité des tâches Tâches répétitives ou simples Tâches complexes, ambiguës, créatives
Pouvoir politique implicite Faible Fort (ciblage, recommandation, surveillance, tri)

Pourquoi l’IA est-elle perçue comme plus puissante ?

  1. Elle peut simuler le raisonnement humain (langage, choix, perception).
  2. Elle dépasse les capacités humaines sur certains plans (volume de données, vitesse, mémoire).
  3. Elle influence des milliards de décisions sans que cela soit visible (algorithmes de réseau social, d’assurance, etc.).
  4. Elle rend possible l’automatisation de fonctions de jugement (recrutement, notation, prédiction de comportements).

En résumé

  • L’informatique classique est un bras exécutant : elle fait exactement ce qu’on lui dit.
  • L’IA est un pouvoir délégué, qui peut apprendre, évoluer, influencer — sans toujours rendre des comptes.

Le passage de l’informatique à l’IA, c’est le passage de la précision mécanique à la décision statistique. Et dans cette transition, le pouvoir devient plus opaque, plus fluide, et potentiellement plus politique.

Les différentes intelligences artificielles

L’intelligence artificielle (IA) regroupe plusieurs formes de technologies capables de simuler certaines capacités humaines. Aujourd’hui, on ne parle pas d’une seule IA, mais de plusieurs types, qui diffèrent par leur fonctionnement, leur degré d’autonomie et leurs usages.

l’IA faible est spécialisée dans des tâches précises comme la reconnaissance faciale, la traduction automatique ou les assistants vocaux, reconnaître une voix, suggérer une vidéo ou corriger une faute d’orthographe. Des outils comme les correcteurs automatiques ou les logiciels d’entraînement adaptatif reposent sur ce type d’IA. Elle peut parfois sembler « intelligente », mais elle ne comprend pas réellement ce qu’elle fait et elle le fait très bien. Elle suit des algorithmes et apprend à partir de grandes quantités de données.

Encore hypothétique, l’IA forte, le rêve (ou le risque) d’une conscience artificielle, vise à reproduire une intelligence comparable à celle de l’humain : compréhension globale, capacité à raisonner, à ressentir, à s’auto-réguler. Elle soulève d’importants débats philosophiques, éthiques et éducatifs.

Les IA génératives, comme ChatGPT, DALL·E et tant d’autres, qui sont capables de produire des textes, des images, de la musique ou même du code informatique représentent une avancée majeure. Elles utilisent des modèles appelés réseaux de neurones profonds, qui imitent les connexions du cerveau humain pour créer du contenu à partir de simples instructions. Ces IA posent à la fois des opportunités créatives et des défis éthiques, notamment autour du plagiat, de la désinformation et de la propriété intellectuelle.

D’un point de vue technique, les intelligences artificielles peuvent être classées selon leur mode de fonctionnement. Les IA symboliques reposent sur des règles explicites, proches de la logique mathématique. Elles offrent une certaine transparence : on peut suivre pas à pas leur raisonnement. En revanche, elles manquent souvent de souplesse face à des situations complexes ou nouvelles. À l’opposé, les IA connexionnistes s’inspirent du fonctionnement du cerveau humain. Grâce à des réseaux de neurones artificiels, elles apprennent à partir d’exemples, de manière progressive, un peu comme un enfant qui expérimente et ajuste ses réponses. Ces systèmes sont plus adaptatifs, mais leur fonctionnement interne est souvent difficile à interpréter. Enfin, les IA hybrides cherchent à combiner les forces de ces deux approches : la rigueur logique des systèmes symboliques et la capacité d’apprentissage des réseaux de neurones. Cette combinaison vise à créer des IA plus robustes, capables de mieux s’adapter tout en restant partiellement compréhensibles.

L’IA est déjà profondément intégrée à notre quotidien : dans nos téléphones, nos voitures, nos soins médicaux ou notre consommation en ligne. Les élèves d’aujourd’hui évolueront dans un monde où collaborer avec des intelligences artificielles fera partie du quotidien. Comprendre les différentes formes d’IA, c’est aussi mieux saisir leurs implications sociales, économiques et humaines.

L’esprit de la conférence 2025 à Montréal

Dès les premières minutes, le ton était donné. Sarah Porter, fondatrice et PDG d’Inspired Minds, également conseillère auprès de l’ONU sur les armes létales autonomes et ancienne experte en IA pour la sécurité intérieure américaine, a lancé un appel clair à la vigilance face à la montée fulgurante des capacités de l’intelligence artificielle. Un message de prudence qui a traversé toute la conférence, jusqu’à la dernière prise de parole de Yoshua Bengio, fondateur et conseiller scientifique de Mila. Sa question résonne comme un avertissement : « Les agents superintelligents posent-ils des risques catastrophiques ? L’intelligence artificielle scientifique peut-elle offrir une voie plus sûre ? »

Le constat partagé est sans équivoque : il est trop tard pour faire marche arrière. Pourtant, Sarah Porter reste fondamentalement techno-optimiste. Selon elle, les technologies émergentes représentent une chance unique de relever les grands défis du siècle. Mais cette opportunité se joue dans un monde en perte de repères : la vérité, le réel, le langage et même la perception du corps humain sont ébranlés par des courants de pensée déconstructionnistes. « Il n’y a plus de vérités, seulement des croyances », affirme-t-elle, soulignant l’érosion du sens commun. Dans ce contexte troublé, l’IA, si elle est orientée avec lucidité et éthique, pourrait bien devenir un outil de préservation, voire de reconstruction, pour l’humanité.

Qu’est-ce que le techno-optimisme ?

Être techno-optimiste, c’est croire que les technologies peuvent améliorer le monde.
Les techno-optimistes pensent que des domaines comme l’IA, la biotechnologie, les énergies renouvelables ou la médecine peuvent résoudre des problèmes majeurs et rendre la vie meilleure.

Pourquoi y croire ?

  • La technologie fait avancer le monde.Elle nous aide à vivre mieux, plus longtemps, à nous soigner, à apprendre, à communiquer.
  • Elle peut répondre à de grands défis.Climat, santé, pauvreté… Les innovations peuvent apporter des solutions concrètes.
  • Elle donne confiance en l’avenir.Les techno-optimistes pensent que l’humanité saura s’adapter, grâce à des outils toujours plus puissants.

Exemples concrets

  • IA : pour gérer les ressources, prédire des catastrophes, soigner plus précisément, ou encore simplifier la vie quotidienne.
  • Les énergies vertes : pour remplacer le pétrole et lutter contre le changement climatique.
  • La médecine de demain : organes artificiels, traitements génétiques, technologies pour vivre mieux, plus longtemps.
  • Exploration spatiale : coloniser Mars ou d’autres planètes, pour garantir l’avenir de l’espèce humaine.

Les limites du techno-optimisme

Tout progrès a des risques
Les technologies peuvent avoir des effets négatifs inattendus (ex. : addiction numérique, atteintes à la vie privée).

Creuser les inégalités
Tout le monde n’a pas accès aux innovations : cela peut aggraver les écarts entre riches et pauvres.

Dépendre trop des machines
Si la technologie tombe en panne, toute la société en sera affectée. De plus, on risque de perdre certaines compétences humaines.

Croire que la tech résout tout
Les problèmes sociaux et humains ne se règlent pas uniquement avec des outils : il faut aussi des solutions politiques, éducatives, collectives.

Le techno-optimisme, c’est croire en un avenir meilleur grâce à la technologie.
Cette confiance ne doit pas être aveugle. Pour un avenir souhaitable, il faut allier innovation, esprit critique et sens des responsabilités.

Les agents superintelligents posent un risque catastrophique : l'IA scientifique peut-elle offrir une voie plus sûre ?

Yoshua Bengio, l’un des pionniers de l’intelligence artificielle, est de plus en plus inquiet face aux dangers liés au développement d’IA très puissantes, appelées "agents généraux" ou "superintelligents". Ces systèmes pourraient, un jour, agir de façon autonome et s’améliorer eux-mêmes. Le problème, selon lui, c’est qu’ils pourraient poursuivre des objectifs mal définis ou contraires aux valeurs humaines, surtout s’ils sont guidés par des intérêts économiques ou militaires. Cela poserait un risque réel de perdre le contrôle.

Pour éviter cela, Bengio préfère des systèmes non-agentiques. Cela signifie des IA qui n’ont pas de volonté propre, qui ne prennent pas d’initiatives et qui ne poursuivent aucun but par elles-mêmes. Ces systèmes réagissent simplement aux instructions ou à l’environnement, sans jamais agir de façon indépendante. Ils sont programmés pour exécuter des tâches, mais ne décident rien par eux-mêmes.

Bengio défend l’idée d’une "IA scientifique", c’est-à-dire une intelligence artificielle au service du savoir et du bien commun. Cette IA serait conçue pour mieux comprendre le monde, simuler des phénomènes complexes, ou aider à faire avancer la recherche, et non pour dominer, manipuler ou contrôler.

Enfin, il appelle à une gouvernance forte de l’IA. Il estime que les scientifiques doivent participer activement à la régulation de ces technologies, et que certaines IA trop puissantes devraient être temporairement mises en pause, le temps d’établir des règles de sécurité fiables.

Selon lui, c’est en plaçant l’éthique, la coopération et les valeurs humaines au cœur du développement technologique que l’on pourra construire une intelligence artificielle utile, sûre et véritablement au service de l’humanité.

Anne Nguyen, Directrice de l’IA au sein du Conseil de l’innovation du Québec

Anne Nguyen a rappelé quelque chose d’essentiel : ce qui fait notre humanité, c’est notre capacité à douter. Contrairement aux machines, qui calculent, exécutent et anticipent sans hésitation, les humains peuvent remettre en question ce qu’ils pensent, ressentir de l’incertitude, changer d’avis. Le doute humain est complexe : il est lié à nos émotions, à notre conscience et à notre capacité à réfléchir sur nous-mêmes. L’intelligence artificielle, elle, ne connaît pas ce genre de doute.

Parfois, certains comportements de l’IA peuvent donner l’illusion qu’elle doute, mais en réalité, ce n’est pas le cas. Par exemple :

  • Une IA peut dire : « Je suis sûr à 70 % que c’est un chat. » Cela ressemble à un doute, mais ce n’est qu’un calcul basé sur des statistiques.
  • Un robot qui change de stratégie après avoir échoué ne doute pas : il suit juste une règle automatique qui ajuste ses actions selon les résultats.
  • En médecine ou en finance, certaines IA indiquent un degré d’incertitude (sûr à 50%, 80%…) pour aider les humains à comprendre leurs décisions. Mais ce n’est pas un doute conscient, juste une façon de signaler les limites des données.
  • Une voiture autonome peut hésiter entre deux trajectoires, mais elle ne doute pas non plus : elle évalue des risques et choisit ce qui semble le plus sûr selon ses calculs.
  • Et si une IA se trompe ou donne une réponse floue, cela ne veut pas dire qu’elle doute : c’est juste qu’elle n’a pas assez d’informations ou qu’elle atteint ses limites.

En fait, l’IA ne doute pas parce quelle n’a pas de conscience. Elle ne ressent rien, ne réfléchit pas sur elle-même, ne se pose pas de questions. Ce qu’on prend parfois pour du doute n’est qu’une suite d’instructions, un traitement de données. Le doute humain, lui, est un signe de liberté intérieure, d’humanité – et c’est quelque chose que les machines ne peuvent pas vraiment reproduire.

Quelques considérations des intervenants

Le biais comme problème de conception

Et si les biais algorithmiques n’étaient pas seulement des erreurs techniques, mais le symptôme dun problème plus profond : un problème de conception ?

C’est ce que suggère l’idée de « bias as a design problem » : au lieu de traiter les biais comme de simples bugs à corriger, elle invite à regarder du côté des choix humains, culturels et politiques qui façonnent la manière dont nous créons l’intelligence artificielle.

Concevoir, c’est faire des choix

Derrière chaque système algorithmique, il y a une série de décisions :
Quels jeux de données utiliser ? Quelles règles appliquer ? Quelles mesures adopter pour juger de la performance ? Ces décisions ne sont jamais neutres. Elles reflètent des valeurs, des priorités, voire des stéréotypes. Le biais n’est donc pas toujours une erreur imprévue : il est souvent le résultat logique des choix faits dès le départ.

Les biais font partie du système

Le problème ne vient pas seulement du code ou des données. Il est structurel.
Par exemple, si les personnes qui conçoivent une IA partagent les mêmes origines sociales, culturelles ou académiques, elles risquent de reproduire sans le vouloir leur propre vision du monde. Résultat : des IA qui fonctionnent bien pour certains... mais mal, voire injustement, pour d’autres.

Concevoir de manière éthique

Penser l’IA comme un objet de design éthique, c’est intégrer dès le départ des questions comme : Qui cela exclut ? Qui cela favorise ? Quelles conséquences pour les plus vulnérables ? Cela signifie aussi travailler avec les personnes concernées, et non juste concevoir des outils « pour elles ».

Rendre les choix visibles

Considérer le biais comme un problème de design, c’est aussi accepter une part de responsabilité. Les concepteurs ne peuvent plus se cacher derrière des formules mathématiques présentées comme objectives. Il faut documenter les décisions, expliquer les intentions et accepter d’être redevable.

Le biais algorithmique n’est pas juste une faille à corriger après coup. C’est souvent le reflet d’une vision du monde intégrée dès la conception. Et si nous voulons des IA plus justes, inclusives et fiables, alors il est temps de repenser en profondeur la manière dont nous les concevons.

We make machines that think not machines that care

«Nous créons des machines qui pensent, des machines intelligentes, pas des machines bienveillantes. »

Cette phrase invite à réfléchir et résume une critique essentielle de l’intelligence artificielle telle qu’elle se développe aujourd’hui. Elle met en lumière un déséquilibre : d’un côté, nous perfectionnons des machines capables de traiter des données, résoudre des problèmes, anticiper des résultats ; de l’autre, nous négligeons ce qui fait la richesse du lien humain — la compassion, l’écoute, l’attention à l’autre.

Les intelligences artificielles actuelles sont conçues pour être performantes. Elles reconnaissent des images, traduisent des textes, jouent aux échecs, conduisent des voitures, posent des diagnostics. Elles sont rapides, précises, efficaces. Mais elles ne ressentent rien. Elles ne comprennent ni la douleur, ni la fatigue, ni la fragilité humaine. Elles pensent de façon logique et froide, sans émotion, sans conscience, sans responsabilité.

Prendre soin, en revanche, ne se réduit pas à une série d’instructions. C’est une attitude, une sensibilité. C’est savoir réagir à une situation imprévisible, être présent pour quelqu’un, adapter son geste ou sa parole à une émotion, à une vulnérabilité. Ce savoir-faire humain, on le retrouve dans les métiers du soin, de l’enseignement, de l’accompagnement. C’est un savoir profondément relationnel, impossible à codifier complètement. Tenter de le reproduire par une machine risque non seulement d’échouer, mais aussi de vider ce geste de son sens.

En construisant des machines toujours plus puissantes, mais déconnectées de toute dimension affective ou morale, nous risquons de renforcer une vision du monde centrée sur la performance, le contrôle et l’efficacité, ce qui se produit chez les gouvernants actuels. Ici, au Québec, par exemple, on tente de réglementer le temps que prends le médecin avec son patient, comme si ce dernier n’était qu’une maladie à traiter et non un être complexe qui influence son rapport avec le mal-être, la maladie.

L’IA devient un outil de productivité froide, utile pour aller plus vite, surveiller davantage, consommer plus, mais incapable de réparer, de protéger ou de renforcer les liens.

Veut-on développer des technologies qui servent la coexistence humaine, ou simplement des outils qui augmentent notre puissance ? Le but n’est pas de donner des sentiments aux machines, mais de faire en sorte qu’elles nous aident à mieux prendre soin les uns des autres, à mieux vivre ensemble, à rester humains dans un monde de plus en plus automatisé. Nous avons appris à fabriquer des machines qui pensent très vite. La vraie question, aujourd’hui, est de savoir si nous saurons créer des technologies qui nous aident à mieux aimer, mieux écouter, à rapprocher les individus, à promouvoir l’harmonie et encourager la solidarité humaine.

Des serveurs publics bon marché, une sécurité complexe

À l’ère du numérique, la gestion des données est un enjeu crucial, à la fois économique et éthique. Les services cloud publics (comme AWS, Azure ou Google Cloud) séduisent par leur coût réduit, leur rapidité et leur flexibilité. Mais cette facilité d’accès cache une réalité plus complexe : la sécurité n’est ni automatique, ni gratuite.

Mutualiser, oui… mais à quel prix ?

Le cloud public repose sur le partage de ressources entre de nombreux utilisateurs. Ce modèle permet des économies d’échelle, mais il augmente aussi les risques. Ces infrastructures concentrent des données sensibles, utilisent des technologies peu transparentes, et attirent les cyberattaques.

La sécurité, ça se construit

Dans un environnement partagé, la sécurité ne se limite pas à un pare-feu. Elle demande une architecture bien pensée, un contrôle strict des accès, le chiffrement des données, et des équipes compétentes. Trop souvent, ces efforts sont sacrifiés pour aller plus vite ou économiser.

Le triangle : coût, sécurité, flexibilité

On ne peut pas tout avoir. Chaque choix technique implique un compromis :

  • Coût + flexibilité : le cloud public, pratique mais plus risqué.
  • Coût + sécurité : solutions fermées, plus sûres mais moins souples.
  • Sécurité + flexibilité : faisable, mais complexe et coûteux.

Un enjeu politique

Ce n’est pas seulement une question technique : qui contrôle les infrastructures ? Qui accède aux données ? Faut-il laisser quelques grandes entreprises privées fixer les règles mondiales ? La cybersécurité devrait être un droit fondamental, pas un privilège.

Pour un numérique durable

Un écosystème numérique plus éthique et sécurisé demande :

  • des standards ouverts pour éviter les dépendances,
  • des investissements publics ou collectifs,
  • plus de transparence de la part des fournisseurs.

La sécurité doit faire partie de la conception, pas être ajoutée après coup.
Nos choix numériques d’aujourd’hui dessinent notre futur.

La transparence, un enjeu clé

Beaucoup d’entreprises et de gouvernements confient des données sensibles à des géants technologiques, sans réelle transparence ni contrôle public. Cela pose un problème de souveraineté et de respect de la vie privée. Nous devons inventer des modèles plus ouverts, fondés sur la confiance. Ce n’est pas qu’une affaire d’argent, mais de valeurs. Les initiatives comme le cloud souverain ou les clouds communautaires peuvent aider à mieux maîtriser nos données, tout en restant viables économiquement.

Une responsabilité collective

Dans un monde numérique partagé, la sécurité ne peut être secondaire. La démocratisation du numérique doit se faire de façon responsable, en prenant en compte la sécurité, la souveraineté et la gouvernance. Les décisions prises aujourd’hui auront un impact durable. Tous les acteurs, publics comme privés, ont un rôle à jouer pour bâtir un numérique plus sûr et plus éthique.

Traçabilité des données : un défi au cœur de l’IA

Lorsqu’un modèle est entraîné, les données brutes qu’il reçoit subissent de nombreuses transformations. Dans le cas d’un modèle de langage comme GPT-4, ces données — textes de livres, articles, forums — sont distillées en paramètres mathématiques (poids, biais) au sein du réseau de neurones. À ce stade, elles ne sont plus reconnaissables : elles deviennent des abstractions, inaccessibles à l’interprétation humaine. Cela rend la traçabilité particulièrement difficile. Une phrase générée par le modèle ne peut pas être reliée à une source précise : elle résulte d’un mélange de millions de fragments, sans lien explicite avec leur origine. Cela pose de sérieuses questions sur la transparence, la responsabilité et la propriété des données.

Entre apprentissage massif et flou éthique

Les grands modèles sont souvent entraînés sur des corpus massifs sans consentement explicite des auteurs. Cela alimente les débats sur le droit d’auteur, la vie privée et l’usage commercial des données. Si un modèle produit un contenu inspiré d’un texte sensible ou privé, il est presque impossible de vérifier sa provenance ou la légalité de son utilisation. Ce manque de traçabilité compromet aussi la fiabilité des informations générées : une affirmation peut sembler crédible, sans qu’on sache si elle repose sur une source valide ou sur un amalgame douteux.

Vers plus de transparence ?

Face à ces enjeux, des chercheurs explorent des solutions : documentation systématique des jeux de données, outils d’explicabilité, mécanismes pour retracer l’origine des informations. Mais dans les modèles de grande échelle, ces efforts se heurtent à une complexité technique majeure.

Une fois les données intégrées dans un modèle d’IA, elles deviennent invisibles. Et c’est précisément cette opacité qui rend urgent un débat éthique sur la manière dont nous entraînons, utilisons et contrôlons ces technologies.

L’IA générative : adopter ou disparaître ?

Les technologies d’intelligence artificielle générative (GenAI) — comme GPT, DALL·E, Gemini, …— progressent à une vitesse fulgurante. Elles permettent aujourd’hui de produire du texte, des images, de la musique ou des vidéos presque impossibles à distinguer de celles créées par des humains. Ces capacités bouleversent déjà de nombreux secteurs : création de contenu, service client, développement logiciel, marketing, etc.

Pourquoi les entreprises doivent s’adapter rapidement

Les organisations qui adoptent rapidement ces technologies prennent une longueur d’avance. Elles peuvent :

  • réduire les coûts, en automatisant les tâches répétitives,
  • gagner en productivité, en générant du contenu ou des rapports plus rapidement,
  • proposer des produits et services innovants,
  • améliorer l’expérience client, avec des chatbots intelligents ou des recommandations personnalisées.

À l’inverse, celles qui tardent à s’y mettre risquent de perdre en compétitivité, voire de disparaître. C’est un peu comme l’arrivée d’une nouvelle norme technologique : on suit le mouvement… ou on est dépassé.

Un dilemme difficile pour les PME

Pour les petites et moyennes entreprises, adopter l’IA peut sembler complexe ou trop coûteux :

  • Investissements importants en logiciels, formation, infrastructure…
  • Résistance au changement, liée à la peur de perdre son emploi ou de ne pas maîtriser ces outils.

Mais ne rien faire peut coûter plus cher à long terme : des clients qui partent, des parts de marché perdues, une perte de pertinence face à des concurrents plus agiles.

Des exemples concrets

  • Industrie : les entreprises qui n’automatisent pas leur production risquent d’être dépassées par des concurrents plus efficaces.
  • Banques : les institutions qui n’utilisent pas l’IA pour simplifier leurs services sont concurrencées par des fintechs plus rapides et plus souples.
  • Marketing : une agence qui n’utilise pas d’outils d’IA pour créer et cibler ses campagnes sera vite à la traîne.

L’IA, bien plus qu’un outil

Adopter l’IA générative ne se limite pas à “faire plus vite”. C’est l’occasion de repenser son modèle économique, sa façon de créer de la valeur, et d’interagir avec ses clients. Il ne s’agit pas de céder à une mode, mais de se transformer en profondeur, pour rester pertinent dans un monde qui change vite.

Une course contre la montre

Plus les concurrents avancent, plus il devient difficile de les rattraper. Ceux qui utilisent l’IA aujourd’hui peuvent créer une avance difficile à combler demain. La transformation numérique n’est donc pas un luxe ou un gadget : c’est un choix stratégique essentiel.

Lintelligence artificielle ne fonctionne que si on lui fait confiance

L’intelligence artificielle progresse rapidement, et ses usages se multiplient dans tous les domaines de la vie quotidienne. Mais pour qu’elle soit réellement acceptée et adoptée par les citoyens, les entreprises et les institutions, un élément est indispensable : la confiance.

Et cette confiance repose surtout sur une question : que fait-on des données ?
Les données personnelles, sensibles, ou massives sont au cœur du fonctionnement de l’IA. Elles nourrissent les algorithmes, guident les décisions, et influencent directement la qualité des résultats. D’abord, il faut s’assurer que les données sont de bonne qualité, qu’elles sont utilisées de manière juste, sans exclure ni discriminer. Ensuite, il faut respecter les droits des personnes : leur vie privée, leur consentement, leur droit de savoir, de refuser ou de faire effacer leurs données. Sans règles claires, l’IA peut déraper : surveillance généralisée, décisions injustes (comme refuser un crédit à cause d’un algorithme biaisé), ou encore influence cachée sur les comportements (publicité ultra-ciblée, par exemple). Ces risques sont bien réels, et ils peuvent briser la confiance, parfois pour longtemps. Alors, comment faire pour rassurer et donner envie d’utiliser l’IA ?

Il faut :

  • Expliquer clairement quelles données sont utilisées, pourquoi et comment.
  • Demander un vrai consentement, simple à comprendre, et qu’on peut retirer facilement.
  • Protéger les données, avec des systèmes de sécurité solides.
  • Encadrer l’IA par des règles éthiques, avec supervision humaine, transparence et équité.
  • Contrôler les systèmes régulièrement, par des organismes indépendants.

En résumé, la confiance ne doit pas être un luxe ou un bonus : elle est indispensable si l’on veut que l’IA soit utile, acceptée, et mise au service de tous. Une IA digne de confiance est une IA qui respecte les droits, explique ce qu’elle fait, et agit de manière responsable.

C’est à cette condition qu’elle pourra vraiment trouver sa place dans la société.

Open source ou closed source : un choix technique… mais surtout politique

Quand on parle de logiciels ou de systèmes d’intelligence artificielle, il existe deux grandes approches : l’open source et le closed source. Elles ne se distinguent pas seulement par des aspects techniques, mais incarnent aussi deux visions très différentes du numérique.

Deux visions du développement logiciel

Open source
Le code est public, librement modifiable et redistribuable. Cela favorise la transparence, la collaboration et l’autonomie. Des communautés actives se chargent d’améliorer, auditer et faire évoluer les projets.

Closed source
Le code est gardé secret par une entreprise. Tout est contrôlé en interne, avec une forte centralisation et une opacité sur le fonctionnement réel du logiciel. L’utilisateur est dépendant du fournisseur.

Pourquoi cette opposition est cruciale

  • Transparence et confiance :
    L’open source permet à chacun de vérifier ce que fait le système. Le closed source demande une confiance aveugle.
  • Sécurité :
    Plus il y a de regards sur un code, plus les failles peuvent être vite repérées. L’open source repose sur cette logique. À l’inverse, le closed source peut cacher des pratiques discutables.
  • Innovation et accessibilité :
    L’open source permet à tous – chercheurs, PME, étudiants – de contribuer et d’innover. Le closed source impose souvent des barrières, financières ou techniques.
  • Éthique et souveraineté :
    L’open source défend une idée du logiciel comme bien commun. Il permet aussi aux pays et institutions de garder la main sur leurs systèmes. Le closed source concentre le pouvoir entre les mains de quelques géants.

Des nuances à considérer

  • L’open source n’est pas toujours simple à utiliser ou maintenir.
  • Sa viabilité économique dépend souvent de modèles hybrides (services, soutien, etc.).
  • Le closed source offre parfois un produit plus stable, avec support professionnel et garanties de performance.

Et dans lIA, concrètement

Deux exemples :

  • Mistral (France), LLaMA (Meta), Bloom (BigScience) : modèles open source, libres, collaboratifs, parfois multilingues.
  • ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) : modèles puissants, fermés, souvent en avance sur le plan commercial mais peu transparents.

L’opposition open vs closed n’est pas anodine. Elle soulève une question centrale : qui contrôle l’intelligence artificielle ? Est-ce un bien partagé, ouvert et éthique, ou un outil détenu par quelques entreprises puissantes ? Le choix de l’un ou de l’autre engage des valeurs fondamentales : liberté, autonomie, justice, souveraineté. L’open source offre la liberté, la transparence et la souveraineté, mais demande plus de compétences techniques.
Le closed source comme ChatGPT offre une expérience puissante et prête à l’emploi, mais au prix d’une opacité et d’une dépendance totale.

Les deux coexistent aujourd’hui, mais le débat sur le contrôle de l’IA — entre quelques géants ou la communauté entière — est plus que jamais ouvert.

Reclaiming Human Autonomy — Reprendre le contrôle de notre liberté

Reclaiming human autonomy, c’est redonner à l’être humain sa capacité d’agir, de penser, de choisir et de vivre selon ses propres valeurs. Dans un monde dominé par des systèmes technologiques, économiques et politiques toujours plus puissants et intrusifs, cette autonomie devient un enjeu fondamental.

Pourquoi notre autonomie est-elle en danger aujourd’hui ?

  • La numérisation de nos vies :
    Notifications, recommandations, surveillance discrète… Nos gestes quotidiens sont influencés par des algorithmes qui orientent nos choix, souvent sans qu’on s’en rende compte.
  • La dépendance aux grandes plateformes :
    L’accès à l’information, aux relations, au travail ou à l’éducation passe désormais par un petit nombre d’acteurs dominants. Cela crée une forme de dépendance douce, mais bien réelle.
  • L’automatisation des décisions :
    Dans la santé, la justice, la finance, des systèmes prennent des décisions à notre place, parfois sans contrôle humain clair. Cela fragilise notre libre arbitre et la responsabilité morale.
  • La fatigue mentale :
    L’ultra-connexion épuise notre attention. Submergés de sollicitations, nous avons de plus en plus de mal à penser librement, à faire des choix réfléchis, à nous recentrer.

Reprendre son autonomie, c’est…

  • Réhabiliter la lenteur : s’autoriser à réfléchir, à douter, à se tromper.
  • Reprendre la maîtrise du temps : ne pas laisser les machines dicter notre rythme.
  • Réapprendre à choisir : distinguer ses vrais désirs de ce que les algorithmes nous suggèrent.
  • Revendiquer lintimité : fixer des limites à la collecte de nos données, défendre notre vie privée.
  • Retrouver une relation directe au monde : renouer avec soi, les autres et la nature, sans l’intermédiaire constant des écrans.

Comment reconquérir cette autonomie ?

  • En développant l’éducation à la pensée critique et à la sobriété numérique.
  • En soutenant des outils éthiques, ouverts, compréhensibles et maîtrisables.
  • En promouvant des lois qui protègent les droits numériques et l’autonomie personnelle.
  • En redonnant de la valeur à l’attention, au silence, à la présence réelle.

Reconquérir l’autonomie humaine, ce n’est pas rejeter la technologie. C’est refuser qu’elle décide à notre place. C’est choisir d’en faire un outil au service de notre liberté, et non une force qui nous absorbe. C’est une manière de rester pleinement humain dans un monde automatisé.

L’illusion de vérité gouvernée par l’IA

La société se nourrit d’une illusion : celle que ce que dit l’intelligence artificielle serait automatiquement vrai. Parce que les réponses sont fluides, rapides, bien formulées, beaucoup leur accordent une autorité qu’elles ne méritent pas toujours. Une machine qui parle bien n’est pas une machine qui dit juste.

L’IA ne pense pas, elle calcule. Elle ne cherche pas la vérité, elle reproduit ce qui lui semble le plus probable, en s’appuyant sur des données passées — parfois biaisées, souvent incomplètes. Elle nous livre une vision statistique du monde, pas une vision éclairée.

Et pourtant, cette parole automatisée prend de plus en plus de place : dans l’information, l’éducation, les décisions administratives ou commerciales. Le problème, c’est que la plupart du temps, on ne sait pas comment ces réponses sont produites. L’opacité des systèmes entretient un climat de confiance aveugle, alors qu’il faudrait au contraire redoubler d’esprit critique.

Derrière cette illusion de vérité, il y a des enjeux puissants : économiques, politiques, culturels. L’IA peut orienter ce que nous voyons, pensons, croyons. Elle peut amplifier certaines idées, en cacher d’autres. Non pas parce qu’elle le veut — elle n’a pas de volonté — mais parce qu’elle obéit à ceux qui la conçoivent, l’exploitent ou la financent.

Ce que cela change

Cette situation affaiblit notre autonomie intellectuelle. Nous consultons plus, mais nous doutons moins. Nous sommes exposés à une pensée lissée, standardisée, qui évite les tensions et simplifie la complexité. La désinformation, quand elle est bien formulée, devient d’autant plus difficile à repérer.

Peu à peu, nous risquons de perdre notre capacité à juger par nous-mêmes. Nous déléguons nos choix à des systèmes qui ne comprennent pas ce que signifie "penser", "douter", "faire preuve de discernement».

La société ne cherche plus la vérité : elle consomme des réponses.
Et si ces réponses viennent d’une IA, elles paraissent plus neutres, plus fiables, plus autorisées — alors même qu’elles ne sont qu’une simulation, parfois brillante, parfois trompeuse, de la connaissance.

L’intelligence artificielle ne doit pas devenir la nouvelle autorité de ce qui est vrai ou faux.
Elle peut nous aider, éclairer, compléter notre jugement — mais elle ne doit jamais le remplacer. Reprendre le contrôle, c’est garder vivante notre capacité à penser librement, à questionner ce qu’on nous présente comme évident, à préférer la réflexion à l’automatisme.

L’IA façonne notre manière d’apprendre — et donc ce que nous devenons

L’intelligence artificielle transforme à toute vitesse nos façons d’apprendre : contenus personnalisés, évaluations automatisées, tuteurs numériques disponibles 24h/24. Le savoir devient accessible en quelques clics, sous forme de réponses instantanées, prédigérées, souvent brèves, visuelles et neutres.

Mais à force de s’adapter à ces nouveaux formats, notre manière d’apprendre change elle aussi : on lit moins, on scrolle plus. On retient vite, mais on oublie vite. On consomme le savoir plutôt qu’on ne le construit. La lenteur, le doute, la confrontation au réel deviennent des luxes rares.

L’IA influence aussi ce que nous apprenons

Les systèmes éducatifs guidés par l’IA favorisent les contenus populaires, bien notés, fréquemment demandés. Cela peut sembler pratique, mais cela produit une sélection biaisée : les savoirs complexes, minoritaires, critiques ou dérangeants passent à la trappe. On entre alors dans l’ère des académies plastiques : séduisantes, efficaces en apparence, mais superficielles. Elles forment des techniciens brillants, mais coupés de toute culture incarnée. Des experts sans mémoire, sans histoire, sans lien.

LIA a l’information, pas lexpérience

Une IA peut synthétiser des textes, répondre à des questions, compiler des données. Mais elle ne ressent rien. Elle ne vit pas ce qu’elle transmet. Elle n’a pas de corps, pas de doute, pas de joie, pas d’échec. Or, un savoir sans expérience est un savoir sans poids. Ce que nous retenons vraiment, c’est ce que nous avons vécu : les gestes, les émotions, les rencontres, les erreurs. Rien de tout cela n’est modélisable.

Apprendre devient un mode de vie

Dans un monde en mouvement, où les machines nous dépassent sur bien des tâches, l’humain reste irremplaçable par ce qu’il est vivant. D’où l’importance d’un apprentissage continu, fondé sur :

  • La curiosité plus que la performance
  • La pensée critique plus que la mémorisation
  • Les compétences humaines : sens, relation, éthique
  • La reconnection au réel : nature, collectif, corps

Apprendre ne peut plus être réduit à une phase de la vie. C’est un art de vivre.

Si nous laissons l’intelligence artificielle dicter la manière et le contenu de notre apprentissage, nous risquons de former des esprits rapides mais creux, des citoyens informés mais désorientés, des vies bien organisées mais peu vécues. À nous de reprendre en main notre rapport au savoir. Apprendre, c’est avant tout se transformer en vivant.

Reprendre la main sur notre éducation, c’est cultiver ce que la machine ne saura jamais transmettre : le courage d’éprouver, de comprendre, de grandir.

Alphabétisation à l’IA

L’Alphabétisation à l’IA, la littéracie en IA, c’est la capacité à comprendre, interroger, et utiliser l’intelligence artificielle en connaissance de cause.
Cela implique de savoir :

  • Ce que fait une IA — et pourquoi elle le fait ;
  • Ce qu’elle ne peut pas faire — et ce qu’elle prétend faire ;
  • Comment elle influence nos choix, nos droits, nos vies.

L’Alphabétisation à l’IA, c’est un ensemble de compétences hybrides :

  • Culture scientifique et technique : algorithmes, réseaux de neurones, biais des données…
  • Esprit critique et éthique : surveillance, discriminations, pouvoir caché…
  • Pratique autonome : savoir utiliser, tester, ajuster les IA…
  • Pouvoir citoyen : refuser, contester, ou choisir face à l’automatisation.

Pourquoi est-ce crucial aujourd’hui ?

Parce que l’IA est partout, souvent invisible, et agit sur nos vies :

  • Recrutement, orientation scolaire, crédit bancaire
  • Filtrage de l’info sur les réseaux sociaux
  • Chatbots dans l’éducation ou la culture
  • Justice prédictive, tri des CV, surveillance...

Sans littéracie en IA, les citoyens :

  • Restent passifs face aux systèmes automatisés
  • Ne peuvent ni comprendre, ni questionner les décisions algorithmiques
  • Risquent de confondre assistance et domination

La littéracie en IA est la condition de la liberté cognitive.

Former à la littératie en IA, c’est…

Initier à la pensée algorithmique, sans forcément programmer :
Comprendre comment une machine “apprend”, et pourquoi cela ne signifie pas qu’elle “pense”.

Faire découvrir les limites de l’IA :
Biais dans les données, opacité des modèles, erreurs de raisonnement, hallucinations convaincantes — autant de failles à connaître pour ne pas s’y laisser prendre.

Éduquer au regard critique :
Qui a conçu cette IA ? Dans quel but ? Quelles intentions derrière ses réponses ? Et surtout : à qui cela profite-t-il ?

Encourager une création responsable :
Utiliser les IA génératives comme des alliées de la pensée — sans en devenir les jouets. Créer, oui, mais avec conscience.

Littératie en IA ≠ culture numérique

La culture numérique, c’est savoir utiliser les outils : chercher, cliquer, partager, publier. La littératie en IA, c’est apprendre à vivre avec des systèmes qui apprennent, influencent nos choix et, parfois, décident à notre place.

La littératie en IA, c’est ne pas devenir le produit de l’IA. C’est une nouvelle alphabétisation du XXIe siècle : pour garder notre liberté de penser, d’agir, de juger.

Elle permet de former des esprits critiques, créatifs et conscients, capables de vivre dans une société algorithmique sans s’y dissoudre.

Des systèmes non-agentiques

Un système non-agentique (ou non-agentic en anglais) désigne un système qui ne possède pas d’intention propre, de volonté, ni de capacité autonome à poursuivre des objectifs. Il exécute des instructions ou des règles prédéfinies, sans chercher à atteindre un objectif par lui-même. Il ne se construit pas une représentation du monde, ni de lui-même en tant qu’entité agissante. Contrairement à un agent autonome, il n’évolue pas en fonction d’une finalité interne : il reste entièrement dépendant des commandes ou des structures mises en place par des humains ou d’autres systèmes.

Voici quelques systèmes non-agentics :

  • Un thermostat régule la température selon un seuil, sans comprendre le but ;
  • Un algorithme de tri exécute une suite d’instruction ;
  • Une IA de reconnaissance d’images, classe des images selon des modèles appris, sans conscience ;
  • Un simulateur physique, calcule des trajectoires ou des réactions.

Utilité du concept

Le concept de non-agenticité est particulièrement utile dans plusieurs domaines. En philosophie de l’esprit, il permet de distinguer les machines des êtres vivants ou conscients, en clarifiant ce qui relève ou non d’une forme d’intention ou de subjectivité. En intelligence artificielle, il aide à comprendre les limites actuelles des modèles comme ChatGPT, qui ne sont pas agentiques : ils ne poursuivent aucun but propre, ne prennent pas d’initiative, et ne possèdent aucune conscience de leurs réponses. En robotique, cette distinction permet de différencier les robots programmés pour simplement réagir de ceux qui peuvent apprendre, planifier ou s’adapter à leur environnement. Enfin, en sciences sociales, elle offre un cadre pour analyser ce qui relève de l’action humaine intentionnelle, par opposition à des mécanismes ou processus automatiques, tels que les routines bureaucratiques ou les algorithmes.

Systèmes agentiques

Créer des systèmes agentiques — c’est-à-dire des systèmes qui poursuivent de manière autonome un but — peut être utile dans certains contextes précis, où l’autonomie est un avantage plutôt qu’un risque. Voici les principaux cas où cela peut être pertinent :

Robots autonomes dans des environnements imprévisibles

Exemples : robots explorateurs pour Mars, drones de secours, robots de nettoyage dans des espaces complexes. Ils doivent prendre des décisions seuls quand l’humain ne peut pas intervenir rapidement.

Véhicules autonomes

Un véhicule autonome doit percevoir l’environnement, planifier un itinéraire, éviter les obstacles. Il agit en fonction d’un but (amener quelqu’un à destination) sans commande directe à chaque instant.

Assistants intelligents avec objectifs complexes

Certains assistants IA sont conçus pour gérer des tâches sur la durée : organiser votre agenda, optimiser votre emploi du temps, ou gérer un système énergétique. Une approche agentique permet de poursuivre un objectif général, en s’adaptant à différents contextes.

Systèmes de gestion automatisée

Dans l’industrie ou la logistique, certains systèmes agentiques peuvent :
– anticiper des pannes,
– réorganiser la production,
– ajuster les flux de manière autonome.

Cela améliore la réactivité et l'efficacité.

Personnages non-joueurs (PNJ) dans les jeux vidéo

Pour créer des personnages plus crédibles, certains jeux utilisent des agents autonomes qui :
– poursuivent leurs propres buts,
– réagissent aux choix du joueur.
Cela rend l’univers plus vivant et interactif.

Le fantasme de l’autonomie

Depuis la mythologie grecque (Prométhée, Talos) jusqu’à la science-fiction moderne, l’humain projette une part de lui-même dans ses créations. Une IA qui défie l’humain évoque :

  • le golem, la créature qui échappe à son créateur ;
  • Frankenstein, le rejet de l’œuvre devenue incontrôlable ;
  • ou encore HAL 9000, l’IA qui juge que l’humain est une menace à la mission.

Ce n’est pas seulement une peur de la technologie, mais une peur de nous-mêmes, dépossédés de notre propre maîtrise

Une société de la délégation technique

Les IA sont de plus en plus utilisées pour :

  • noter, recruter, orienter, surveiller, sanctionner.
  • Or, ces tâches relèvent traditionnellement de l’humain, du politique, du juge, du pédagogue.

Le risque d’une technocratie opaque

Si l’IA devient un acteur dautorité opaque, qui défie nos décisions sans que nous comprenions pourquoi :

  • cela peut miner la démocratie (qui décide pour qui ?) ;
  • cela affaiblit la confiance sociale ;
  • cela renforce les inégalités daccès au sens (ceux qui comprennent les algorithmes et ceux qui les subissent).

Une IA qui défie sans rendre de comptes devient un pouvoir sans visage.

Pourquoi vaut-il mieux créer des systèmes non-agentiques (sans intention) que des systèmes agentiques (avec un but) ?

On garde le contrôle
Un système non-agentique fait ce qu’on lui dit, point.
Un système agentique peut essayer d’atteindre un objectif tout seul… parfois de façon imprévue. Mieux vaut garder la main.

On ne confond pas humain et machine
Un système agentique peut faire croire qu’il "veut" ou «décide". Ça peut tromper les gens.
Un système non-agentique est clairement une machine, pas une conscience.

On sait qui est responsable
Si la machine agit seule, qui est responsable des erreurs ? Avec un système non-agentique, on sait : c’est la personne qui l’a programmé ou utilisé.

On évite les dérapages
Un système agentique pourrait prendre de mauvaises décisions ou causer du tort en poursuivant un but. Un système non-agentique ne cherche rien, il exécute une tâche.

On garde une relation claire
Un outil reste un outil. Pas besoin qu’il fasse semblant d’avoir une volonté ou une personnalité.

Les systèmes non-agentiques sont plus simples, plus sûrs et plus faciles à comprendre.
Ils nous aident sans essayer de penser à notre place.

Pourquoi c’est important aujourd’hui ?

Dans un monde où les systèmes automatisés sont omniprésents (IA, objets connectés, assistants virtuels), il est crucial de :

  • ne pas projeter des intentions humaines sur des systèmes qui n’en ont pas (ex. : croire que ChatGPT "veut aider" ou que l’algorithme "a décidé") ;
  • discerner les limites éthiques et opérationnelles de ces systèmes ;
  • préserver une juste place à la responsabilité humaine, surtout quand on délègue des décisions à des machines.

La résistance humaine comme nécessité

Dans ce contexte, il est crucial de promouvoir une capacité critique, éducative et collective à résister aux logiques automatisées.

Cela implique :

  • un droit à comprendre les systèmes (transparence algorithmique) ;
  • un droit à contester leurs décisions (justice algorithmique) ;
  • un devoir d’enseigner la pensée critique et la complexité (éducation humaniste et technocritique).

L’IA peut défier, mais l’humain doit pouvoir répondre, questionner, décider.

 

Dernière modification le dimanche, 11 mai 2025
Ninon Louise LePage

Sortie d'une retraite hâtive poussée par mon intérêt pour les défis posés par l'adaptation de l'école aux nouvelles réalités sociales imposées par la présence accrue du numérique. Correspondante locale d'Educavox pour le Canada francophone.