fil-educavox-color1

DomiGeek, un créateur de contenu francophone passionné par les sciences, la technologie, et plus particulièrement l’intelligence artificielle, partage ses explorations à travers des vidéos originales dont une série documentaire marquante intitulée « L’humain, architecte de sa propre destruction (IA) » une série de 8 vidéos au titre sensationnaliste.  Il y explore les enjeux de l’intelligence artificielle, en rappelant avec humour que « la connaissance, c’est le pouvoir – et ici, c’est le pouvoir de ne pas laisser les robots prendre le dessus ! » 

         

Le lien indiqué en note de bas du document [i] mène directement à cette série très instructive.

 Thierry Taboy, auteur sur Éducavox, nous a signalé cette série captivante. Après l’avoir visionnée, j’ai décidé de proposer ce texte, qui se veut à la fois informatif et accessible. Vous y trouverez :

  • Une brève introduction historique, retraçant l’évolution du calcul, de l’invention des premières machines jusqu’à l’informatique et l’intelligence artificiel ;
  • Les questions que je me suis posées en regard des vidéos ;
  • Quelques exemples concrets, notamment dans le contexte scolaire ;
  • Et des synthèses claires, pour rendre plus simples certaines informations complexes.

Mon objectif est de mieux comprendre le processus et, d’une certaine façon, d’approcher "l’âme de la machine"

Tout au long de cette aventure, à laquelle la curieuse que je suis vous convie, il importe de garder en mémoire une évidence : ces fabuleuses machines, désormais omniprésentes dans nos vies, ont été créées par nous, êtres humains. Aussi impressionnantes qu’elles paraissent, elles demeurent le fruit de nos inventions, de nos formules et de notre imagination.           

 Pour bien asseoir notre pensée, rappelons que ce sont des femmes et des hommes comme nous qui ont d’abord inventé le calcul. Et qu’aujourd’hui encore, derrière l’apparence de robots et d’assistants virtuels sophistiqués, nous n’avons affaire qu’à des machines à calculer… extraordinairement perfectionnées. Apprendre à connaître, à comprendre la machine permet aux humains de faire des choix éclairés.

Commençons ce voyage mathématique

Tout commence par le calcul

À l’origine, il y avait la nécessité de compter.  Très tôt, les humains ont inventé des systèmes pour garder la trace des quantités : des cailloux, des encoches sur du bois, puis des chiffres. Le calcul est né comme un outil de survie, indispensable pour mesurer, commercer, anticiper les saisons ou partager des ressources. Le calcul n’est pas seulement un outil pratique, il est une façon de sortir du chaos, d’introduire de l’ordre dans la vie humaine, donner une forme au monde, le rendre mesurable et intelligible 

De la main à la machine

Avec le temps, le calcul manuel est devenu insuffisant face aux exigences croissantes des sciences, de l’astronomie ou du commerce. L’esprit humain, avide de dépasser ses propres limites, a cherché à confier ces opérations répétitives à des mécanismes. C’est alors qu’apparurent les premières machines à calculer : l’abaque, la Pascaline de Blaise Pascal, les mécanismes plus complexes de Leibniz, puis le projet visionnaire de Babbage, sa « machine analytique ».  Ces inventions marquent une étape : l’homme délègue aux machines une partie de son effort intellectuel. Chaque invention est une tentative de délier l’intelligence humaine de la lourdeur du calcul.

L’invention de la programmation

 Au tournant du XIXᵉ siècle, la soierie lyonnaise était florissante mais demandait un travail titanesque : pour créer des motifs complexes, les ouvriers devaient lever manuellement des centaines de fils de chaîne à chaque passage de navette. Basile Bouchon imagine d’utiliser un ruban perforé en papier pour contrôler automatiquement la levée des fils de chaîne sur un métier à tisser. C’est lui qui introduit l’idée du « programme » matérialisé par des trous. Jean-Baptiste Falcon remplace le ruban par une série de cartes perforées reliées entre elles (plus pratiques à manipuler et à remplacer).  Jacques Vaucanson améliore encore le système de Bouchon et Falcon, en construisant un métier entièrement automatique.  Joseph-Marie Jacquard reprend ces idées, réussit à simplifier la mécanique et convaincre les autorités. Napoléon lui donnera même une pension pour poursuivre son travail. [ii] 

Le principe de programmation : les cartes perforées des cartes rigides, percées de trous selon un motif précis.  La machine fait avancer les cartes, l’une après l’autre. De petites aiguilles testent la présence ou l’absence de trous. Si une aiguille passe à travers le trou, le crochet associé reste relevé → le fil de chaîne correspondant ne s’abaisse pas. C’est l’une des premières applications de la programmation mécanique : la suite de cartes perforées est une forme de code binaire (trou = 1, plein = 0).   Les cartes perforées furent utilisées dans les premiers ordinateurs (IBM, années 1940–50).

Georges Boole

Ce mathématicien est le fondateur de l’algèbre booléenne, qui sert aujourd’hui de base aux circuits logiques et à l’informatique.  Il a l’idée révolutionnaire de représenter les opérations logiques (oui/non, vrai/faux) avec des symboles algébriques. La vérité = 1, la fausseté = 0.  Toute opération mathématique peut être décomposée en suites de oui/non.  Il établit une correspondance entre les opérations logiques et des opérations algébriques.

            ET (conjonction) → Multiplication

  • Idée : « Il pleut ET j’ai un parapluie ».
  • En logique, Vrai = 1, Faux = 0.
  • Avec ET, le résultat n’est vrai (1) que si les deux conditions sont vraies (1×1 = 1).
  • Si l’une est fausse (0), la multiplication donne 0 → donc c’est faux.

Exemple :

  • Pleut (1) ET parapluie (1) → 1×1 = 1 → vrai.
  • Pleut (1) ET pas de parapluie (0) → 1×0 = 0 → faux.

OU (disjonction) → Addition

  • Idée : « Il pleut OU il neige ».
  • Ici, il suffit qu’une des deux soit vraie pour que la phrase soit vraie.
  • En logique, ça ressemble à une addition :

◦         0 + 0 = 0 → rien ne se passe.

◦         1 + 0 = 1 → il pleut.

◦         0 + 1 = 1 → il neige.

◦         1 + 1 = 1 → il pleut et neige (en logique, on garde « 1 », pas « 2 »).

Donc OU, c’est comme une addition avec une limite : au maximum 1.

NON (négation) → Complément

  • Idée : « Il NE pleut PAS ».
  • Ici, on inverse la valeur :

◦         Si c’était vrai (1), NON le rend faux (0).

◦         Si c’était faux (0), NON le rend vrai (1).

C’est comme prendre le complément :

  • NON (1) = 0
  • NON (0) = 1        

La logique devient un système calculable, manipulable comme des équations.

Un raisonnement n’est plus seulement des mots → il peut se traduire en opérations mathématiques. George Boole a mathématisé la pensée logique en inventant une algèbre où les variables ne valent que 0 ou 1, et où les opérations reflètent les règles de la logique.

Cela prépare le terrain pour une traduction du calcul en une forme binaire.

L’ère de l’informatique

On découvre que l’électricité peut jouer ce rôle binaire :

Circuit ouvert = pas de courant = 0,

Circuit fermé = courant passe = 1.

Claude Shannon démontre que l’algèbre de Boole peut être implémentée par des circuits électriques faits de relais ou d’interrupteurs. Les relais sont remplacés par les lampes à vide, puis par les transistors.  Chaque transistor agit comme un interrupteur ultra-rapide qui laisse passer ou bloque les électrons. Aujourd’hui, chaque calcul que fait un ordinateur est littéralement un rythme d’électricité qui circule ou non dans des milliards de minuscules interrupteurs.

 Les premiers ordinateurs pouvaient résoudre en quelques secondes ce qui aurait demandé des mois de travail humain.

L’émergence de l’intelligence artificielle

Puis est venue une étape nouvelle : ne plus seulement déléguer aux machines des calculs, mais leur confier des tâches d’analyse, de reconnaissance, d’apprentissage. L’intelligence artificielle est née de cette ambition : créer des systèmes capables d’imiter certaines fonctions cognitives humaines, de résoudre des problèmes complexes ou de générer des idées nouvelles. Du simple calcul aux réseaux neuronaux profonds, l’histoire est celle d’un même élan : repousser les limites de notre propre intelligence en fabriquant des outils toujours plus puissants.

L’intelligence artificielle : une extension de nous-mêmes

 Aujourd’hui, avec l’intelligence artificielle, nous franchissons une frontière plus subtile. Les machines n’exécutent plus seulement des instructions : elles apprennent, généralisent, proposent. Mais là encore, il serait illusoire d’y voir une altérité totale. L’IA n’est pas une conscience étrangère : elle est le prolongement de notre désir de comprendre et de créer. Derrière ses réseaux de neurones, il y a toujours nos intuitions, nos formules, nos bases de données. L’IA n’est qu’une étape supplémentaire dans cette longue histoire où l’humain s’invente lui-même en inventant ses machines.

Ainsi, de la pierre gravée aux algorithmes génératifs, c’est une même quête qui se poursuit : donner forme à la pensée, la rendre transmissible, la déléguer pour mieux l’amplifier. Et peut-être qu’en regardant nos machines, si impressionnantes qu’elles soient, nous ne contemplons jamais que notre propre reflet.

Les données et la machine

 Une donnée est une information brute, c’est-à-dire un élément simple qui n’a de sens que lorsqu’on l’interprète. Par exemple, le chiffre 15 seul est une donnée. Si l’on précise qu’il s’agit de 15 °C, c’est une donnée de température. Si l’on dit qu’il y a 15 élèves présents, c’est une donnée scolaire.

 Dans l’éducation, les données sont partout : une note comme 12/20, le nombre de mots mal orthographiés dans une dictée ou le temps qu’un élève met pour résoudre un problème de mathématiques sont toutes des données.

 Les humains comprennent les données de manière directe et intuitive. Une image, un mot ou une voix sont immédiatement porteurs de sens. Pour nous, les données sont à la fois : signification et compréhension. La machine, elle, ne comprend pas directement les images, les mots ou les sons. Elle transforme tout en nombres :

  • Une image devient une grille de valeurs correspondant aux pixels.
  • Un mot est converti en suite de codes numériques.
  • Un son est traduit en signaux chiffrés.

Ainsi, tout ce qu’on donne à la machine — mots, images, sons — doit passer par cette traduction en chiffres pour qu’elle puisse travailler avec.  La machine traduit les données

Texte : Chaque lettre est transformée en nombre via un code (ASCII ou Unicode). Par exemple, “chat” devient [99, 104, 97, 116], puis chaque nombre est converti en binaire pour l’ordinateur. Pour la machine, chat devient une suite de nombres (01100011 01101000 01100001 01110100).

Images : Quand on lui montre une photo, elle ne voit pas le chat.  La photo est découpée en pixels, chaque pixel reçoit une valeur numérique pour sa couleur ou sa luminosité. Chaque pixel a une couleur ou un niveau de luminosité. La machine transforme cette couleur en valeur numérique. Exemple en noir et blanc : 0 = noir, 255 = blanc, et les niveaux intermédiaires sont gris. Exemple en couleur : chaque pixel a trois valeurs numériques (rouge, vert, bleu), chacune entre 0 et 255. Tous les pixels devenus des nombres sont regroupés en tableau ou matrice.  Si l’image fait 100×100 pixels, la machine a un tableau de 10 000 valeurs (ou 30 000 si couleur avec RGB). Tous ces nombres forment une matrice, que le réseau de neurones analyse pour identifier des motifs, par exemple reconnaître un chat.

Son : La voix est convertie en échantillons numériques, chaque instant devient un nombre qui indique si le son est fort, moyen ou faible.  Le réseau de neurones repère ensuite les motifs dans cette suite pour reconnaître des mots ou des phrases : certaines suites correspondent au mot “bonjour”, d’autres à “au revoir”.  La machine ne comprend pas la voix comme nous, mais elle comprend les modèles dans les nombres qui représentent cette voix.

Après les calculs, la machine produit des résultats numériques. Pour qu’ils soient compréhensibles par les humains :

  • Les nombres correspondant à un texte sont reconvertis en lettres ou mots.
  • Les nombres correspondant à une image sont retransformés en pixels pour afficher l’image.
  • Les nombres correspondant à un son sont convertis en vibrations que nous entendons.

En résumé, la machine calcule et analyse en nombres, puis traduit ces nombres en formes compréhensibles pour l’humain : mots, images ou sons.

 La machine est rapide et peut traiter des millions de données en quelques secondes, sans fatigue ni perte de concentration. Elle peut détecter des régularités invisibles à l’œil humain et répéter des opérations des milliers de fois sans erreur.  Dans une école, par exemple, un enseignant peut corriger une dictée, mais il est impossible d’analyser toutes les copies de 300 élèves sur toute l’année. La machine, elle, peut scanner toutes les dictées en quelques secondes, compter les fautes, classer les erreurs par type et suivre la progression de chaque élève.

  • Avantage de la machine : traiter rapidement une énorme quantité de données.
  • Avantage de l’humain : donner du sens, comprendre le contexte et adapter l’enseignement.

L’humain, lui, reste bien meilleur pour donner du sens, interpréter le contexte et comprendre la nuance. Mais dès qu’il s’agit de traiter de grandes quantités de données brutes, la machine est imbattable.

Un exemple :

Mme Dupuis, enseignante de français, vient de corriger une série de dictées. Elle remarque quelques fautes d’accord, mais elle n’a pas le temps de tout analyser en détail pour ses 120 élèves.

À côté d’elle, la machine a déjà scanné toutes les copies. En quelques secondes, elle produit un rapport :

  • « 38 élèves confondent et et est. »
  • « 22 élèves oublient systématiquement le -nt au pluriel. »
  • « La classe a réduit ses fautes d’orthographe de 30 % depuis septembre. »

Mme Dupuis lit ces résultats et se dit :
— « Parfait, je vais préparer un atelier spécial sur les homophones et/est. Et pour les pluriels, je vais reprendre la règle en petits groupes. »

 La machine a fait le tri et les calculs.
L’enseignante donne le sens et adapte sa pédagogie.

Épisode 1 - L'intelligence Artificielle en 2024 - 11minutes 55

            Lien vers l’épisode 1 en bas du document [iii]

Suite au visionnement de l’épisode 1, voici les questions que je me pose.

Qu’est-ce qu’un neurone et un réseau de neurones informatique ?

 L’histoire de l’intelligence artificielle (IA) est en grande partie une tentative d’imiter le cerveau humain.  Le cerveau est composé de milliards de neurones biologiques, chacun recevant des signaux, les additionnant, puis décidant d’envoyer ou non un signal à d’autres neurones. C’est une cellule qui transforme des entrées en une sortie.

 Les ingénieurs se sont inspirés de ce modèle pour créer des neurones artificiels.
Un neurone artificiel est une petite équation mathématique qui :

            Reçoit des entrées (par exemple, les résultats scolaires d’un élève, ses réponses à un test, ou ses habitudes d’apprentissage),

            Applique des poids (qui amplifient ou réduisent l’importance de chaque entrée),

            et produit une sortie selon une règle de décision.

 Les poids sont comme des boutons de volume : ils règlent l’importance de chaque connexion entre neurones. Au départ, ces poids sont aléatoires. Grâce à un algorithme d’apprentissage, ils s’ajustent progressivement en voyant des milliers ou millions d’exemples. C’est ainsi que le réseau peut apprendre à proposer des exercices adaptés au niveau d’un élève, à repérer des difficultés d’apprentissage, ou à suggérer des parcours personnalisés.

Les neurones sont organisés en couches :

  • Couche dentrée : reçoit les données brutes (résultats scolaires, temps passé sur une activité, erreurs fréquentes).
  • Couches cachées : étapes intermédiaires de raisonnement. Elles transforment petit à petit ces données en représentations plus utiles pour la machine (par exemple : identifier si l’élève a des difficultés en compréhension écrite ou en calcul mental). Plus il y a de couches, plus le réseau peut apprendre des concepts abstraits. C’est ce qu’on appelle le deep learning (apprentissage profond).
  • Couche de sortie : produit le résultat final, compréhensible pour nous (par exemple, “l’élève a besoin d’exercices supplémentaires en fractions” ou “niveau de lecture : intermédiaire”).

En résumé

  • Chaque neurone est une équation.
  • Chaque couche est un ensemble d’équations.
  • L’ensemble du réseau de neurones est comme une immense fonction mathématique très complexe, capable d’apprendre à résoudre des problèmes du monde réel, comme aider un enseignant à mieux comprendre les besoins de ses élèves et à personnaliser son accompagnement.

Quel lien entre les réseaux de neurones et les algorithmes ?

 Un algorithme, c’est une suite d’instructions précises pour résoudre un problème.
En éducation, on pourrait le comparer à une méthode de correction de dictée où l’enseignant suit une grille très stricte : si l’élève écrit Les enfants joue dans le jardin, la règle dit → 1 faute d’orthographe.

C’est terministe :   réponses identiques, la note sera toujours la même.

Un réseau de neurones fonctionne autrement.
Il ne suit pas une liste fixe de règles : il apprend à partir de nombreux exemples.
En éducation, ce serait comme un enseignant qui observe de nombreuses copies d’élèves, remarque des tendances, et ajuste sa manière de corriger.

  • Si un élève fait souvent des erreurs sur les fractions, le réseau “apprend” que ce type de faute a plus de poids pour identifier une difficulté en mathématiques.
  • Grâce à cela, il peut prédire que tel élève aura probablement besoin d’aide sur les fractions, même si ce cas précis n’a jamais été vu avant.

C’est probabiliste : deux élèves aux profils très proches peuvent recevoir des recommandations légèrement différentes, car le réseau “reconnaît” la solution la plus adaptée.

Un réseau de neurones n’existe pas sans algorithmes :  ce sont des algorithmes dentraînement qui ajustent les poids, un peu comme un enseignant qui affine ses critères de correction en fonction de l’expérience.

En éducation, on pourrait dire :

  • L’algorithme, c’est la grille de correction imposée,
  • Le réseau de neurones, c’est le professeur qui apprend à adapter son jugement et à personnaliser l’accompagnement des élèves.

L’algorithme est la méthode, le réseau de neurones est celui qui apprend à s’en servir pour devenir plus flexible et intelligent.

Épisode 2 - Une supervision compromise ! 13minutes 30

Lien vers l’épisode 2 en bas du document [iv]

Cette vidéo commence ainsi : L’apprentissage est la pierre angulaire de l’intelligence artificielle moderne, c’est l’art d’enseigner aux machines.  Cet épisode traite de l'Apprentissage Supervisé et de l'Apprentissage non Supervisé.  On y explore aussi le monde du deep learning et ses contributions révolutionnaires. Dans l’apprentissage supervisé, chaque donnée d’entrée est associée à une étiquette.

Exemple d’entrainement d’une IA avec étiquetage des données 

 L’entraînement d’une IA consiste à lui apprendre à faire une tâche, un peu comme un élève qui s’exerce et corrige ses erreurs.  Voici un exemple de développement d’une IA pour corriger les erreurs en mathématiques.

Imaginons que nous souhaitons créer une IA capable de repérer et expliquer les erreurs dans les devoirs et examens de mathématiques d’élèves de 15 ans. Nous disposons d’un grand ensemble de données : environ 150 000 copies d’examen et leurs résultats depuis 1975.

1. Définir la tâche

 La tâche de l’IA est de identifier les erreurs dans les réponses des élèves et de classer le type d’erreur (ex. Erreur de calcul, erreur de signe, erreur conceptuelle). C’est un exemple classique d’apprentissage supervisé : on fournit à l’IA des exemples d’entrées (les réponses des élèves) et de sorties correctes (les erreurs identifiées ou la note associée).

2. Préparer les données par l’étiquetage

 Pour que l’IA apprenne correctement, chaque copie doit être étiquetée.  L’étiquetage des données transforme des données brutes en informations compréhensibles pour la machine, lui permettant d’apprendre et de s’améliorer.  Dans l’apprentissage supervisé, la machine apprend à partir d’exemples qui sont déjà associés à une réponse correcte. Ces réponses correctes sont les étiquettes.  Les modèles apprennent à partir de ces étiquettes. Plus elles sont précises et cohérentes, meilleure sera la performance de l’IA.

Si les étiquettes sont incorrectes ou incohérentes, le modèle peut apprendre de mauvaises règles, ce qui conduit à des erreurs.  L’étiquetage est un travail de tri, d’organisation et de jugement humain qui prépare la machine à apprendre correctement.

Exemple :

  • On associe chaque réponse à une étiquette indiquant si elle est correcte ou incorrecte.
  • Si incorrecte, on précise le type d’erreur (calcul, concept, omission, etc.).
  • Exemple concret :

◦         Réponse élève : 2x+3=7⇒x=4
Étiquette : Erreur de calcul (car x=2 est correct)

◦         Cet étiquetage peut être fait automatiquement à partir des corrections déjà notées sur les copies ou manuellement pour des cas plus complexes. 

Autre exemple d’étiquetage dans un contexte scolaire

Imaginons qu’un enseignant souhaite aider ses élèves à améliorer leur rédaction. Il dispose de 150 copies de textes et veut que la machine apprenne à détecter :

  • Les fautes d’orthographe,
  • Les phrases mal construites,
  • Ou les idées principales et secondaires.

Pour cela, des humains (souvent des enseignants ou des assistants pédagogiques) font le travail suivant :

Lire chaque texte et identifier les erreurs ou les points importants.

Attribuer une étiquette à chaque élément :

◦         Mot mal orthographié → étiquette « faute d’orthographe »

◦         Phrase difficile à comprendre → étiquette « phrase à améliorer »

◦         Idée principale → étiquette « idée centrale »

Vérifier la cohérence : les mêmes critères sont appliqués à toutes les copies.

Une fois toutes les données étiquetées, la machine peut apprendre à reconnaître automatiquement les fautes et les structures de phrases à améliorer. Ensuite, elle pourra analyser de nouveaux textes et proposer des corrections ou des conseils aux élèves.

            L’étiquetage est une fonction essentielle dans la programmation de l’intelligence artificielle. C’est grâce à lui que l’IA peut apprendre à reconnaître et à classer des informations. Cependant, il faut noter que les choix faits lors de l’étiquetage influencent directement le comportement de la machine : selon les données et les étiquettes utilisées, une IA pourrait être orientée de manière positive, neutre… ou même pour promouvoir des idéologies extrémistes.

3. Choisir et entraîner le modèle

On utilise un modèle basé sur le traitement de texte/mathématique où on programme les règles à l’avance (méthodes déterministes) ou un modèle de machine learning, par exemple un réseau de neurones où on entraîne le modèle sur des données pour qu’il découvre les règles cachées lui-même (méthodes apprenantes).

  • Entrée : la réponse de l’élève (texte, équation ou image scannée de la copie).
  • Sortie : l’étiquette correspondant à l’erreur.
  • L’IA compare ses prédictions aux étiquettes et ajuste ses “poids internes” pour réduire les erreurs.
  • Ce processus est répété des milliers de fois sur une partie des 150 000 copies, jusqu’à ce que l’IA apprenne à détecter les erreurs avec précision.

4. Validation et test

Une partie des copies n’est jamais montrée à l’IA pendant l’entraînement.

  • Cela permet de vérifier si elle généralise bien : peut-elle détecter des erreurs sur de nouvelles copies qu’elle n’a jamais vues ?
  • Si elle mémorise seulement les anciennes copies sans comprendre les règles, elle ne sera pas utile pour de nouvelles situations.

5. Résultat

Après entraînement, l’IA peut :

  • Identifier rapidement les erreurs dans une copie.
  • Classer le type d’erreur (calcul, signe, concept).
  • Fournir un retour pédagogique aux élèves, par exemple “Erreur de calcul : revérifie ton addition” ou “Erreur conceptuelle : revois la méthode de résolution d’équations”.

Cet exemple illustre l’apprentissage supervisé (entrer des exemples et leurs corrections) et l’étiquetage des données (annoter chaque réponse avec le type d’erreur). Avec un historique de 150 000 copies, l’IA pourrait devenir très précise et fournir une aide pédagogique individualisée.

Épisode 3 - L'énigmatique CNN - 18 minutes

Lien vers l’épisode 3 en bas du document [v]

Cet épisode est une immersion dans le monde des Réseaux de Neurones Convolutifs (CNN), les architectes de la vision par ordinateur.  Comprendre ce qui rend les CNN uniques et comment ils traitent les images. Explore les mécanismes mathématiques et techniques qui permettent aux CNN de 'voir'. 

Exemple d’application de CNN en éducation

Scénario : un examen de mathématique au secondaire

Dans une classe les élèves passent un examen de mathématique comprenant des exercices de calculs et de résolution de problèmes. Toutes les copies sont manuscrites.

Une fois l’examen terminé, les copies sont numérisées.  Elles sont alors analysées automatiquement par un réseau de neurones convolutifs (CNN), préalablement entraîné sur des milliers de copies corrigées par des enseignants.  Le système reconnaît les chiffres, les symboles et les structures d’opérations (fractions, équations, multiplications posées). Il est également capable d’identifier les étapes intermédiaires du raisonnement de l’élève.

EXEMPLE : un élève écrit   13 × 7 = 82.

 Le CNN détecte que le résultat attendu est 91. En examinant le raisonnement, il constate que l’élève a sans doute correctement effectué 3 × 7 = 21 et noté la retenue, mais a commis une erreur lors de l’addition finale. L’erreur est donc localisée précisément dans l’étape de l’addition.

À partir de cette analyse, le système génère deux niveaux de retour pédagogique :

  • Pour l’élève, un feedback immédiat et formatif :

◦         « Vérifie bien ton addition finale, tu as fait une petite erreur de calcul. »

◦         « Ton raisonnement est correct, mais le résultat final est faux. »

  • Pour l’enseignant, une synthèse des erreurs récurrentes dans la classe :

◦         12 élèves ont fait une erreur de multiplication avec retenue.

◦         7 élèves ont inversé des chiffres (82 au lieu de 91).
Ces informations permettent d’adapter le cours suivant, par exemple en revenant sur les multiplications posées et les erreurs typiques.

Valeur ajoutée du système

  • Gain de temps : l’enseignant n’a plus à effectuer toutes les corrections répétitives et peut se concentrer sur l’accompagnement.
  • Feedback personnalisé : chaque élève reçoit une explication ciblée sur ses erreurs.
  • Analyse collective : les erreurs fréquentes sont mises en évidence et deviennent des pistes pédagogiques pour toute la classe.

Épisode 4 - L'électrisante RNN, les piliers de la compréhension des séquences et du langage naturel.

-    19 minutes

Lien vers l’épisode 4 en bas du document [vi]

Dans cet épisode, nous plongeons dans le monde captivant des Réseaux de Neurones Récurrents (RNN), les piliers de la compréhension des séquences et du langage naturel.  On y explique le fonctionnement interne des RNN et leur capacité à 'se souvenir' des informations précédentes.  Quelles sont les stratégies essentielles pour entraîner et affiner les performances des RNN.

RNN en éducation: détection des difficultés d’écriture

Les réseaux de neurones récurrents (RNN) aident les enseignants à détecter automatiquement les difficultés d’écriture chez les élèves de 12 à 15 ans.

Comment ça fonctionne :

  • Les textes des élèves (récits, résumés, réponses d’examen) sont transformés en séquences de mots ou de caractères.
  • Le RNN lit chaque texte mot par mot et prédit le mot suivant.
  • Quand la prédiction diffère de ce qui est écrit, le système signale une erreur (orthographe, grammaire, logique).
  • Il fournit un retour personnalisé, souligne les passages problématiques et propose des reformulations adaptées au niveau de l’élève.

Avantages :

  • Feedback immédiat, sans attendre la correction manuelle.
  • Permet à l’enseignant de se concentrer sur l’accompagnement pédagogique.
  • Autres usages : analyse de la prononciation, prédiction de la progression scolaire, création de tutoriels adaptatifs.

En résumé, les RNN offrent un soutien intelligent et personnalisé, transformant la manière dont les élèves apprennent et les enseignants interviennent.

Épisode 5 - Fascinante 3D-R2N2 -16 minutes

Lien vers l’épisode 5 en fin de document [vii]

Cet épisode explore l'univers fascinant du 3D-R2N2, une évolution captivante des Réseaux de Neurones Récurrents (RNN), crucial pour comprendre et analyser des données tridimensionnelles. Découvrez les caractéristiques uniques du 3D-R2N2 et sa capacité hors pair à traiter les séquences de données en 3D.

 Le 3D-R2N2 (Recurrent Reconstruction Neural Network) est un réseau de neurones qui permet de reconstruire un objet en 3D à partir d’images 2D prises sous différents angles.
C’est surtout utilisé en vision par ordinateur (robotique, reconnaissance d’objets, réalité augmentée), mais on peut tout à fait imaginer des applications en éducation.

Exemple d’application du 3D-R2N2 en éducation : apprentissage de la biologie (anatomie)

Un professeur de biologie souhaite aider ses élèves de 14 à 16 ans à mieux comprendre la structure d’organes complexes, comme le cœur, les poumons ou le cerveau. Les schémas plats des manuels scolaires rendent souvent difficile l’imagination de ces structures en trois dimensions.

Étapes de l’activité :

  1. Collecte d’images 2D
    Les élèves prennent des photos d’un modèle anatomique (par exemple un cœur en plastique) depuis différents angles, à l’aide de leur téléphone ou d’une tablette.
  2. Reconnaissance et reconstruction par le 3D-R2N2
    L’algorithme reçoit ces images et reconstruit automatiquement un modèle 3D complet de l’organe.
  3. Exploration interactive
    Les élèves peuvent visualiser le cœur en 3D sur l’écran: le faire tourner, zoomer, enlever des couches (parois, ventricules, artères). Le professeur peut annoter le modèle pour mettre en évidence les zones clés.
  4. Activité pédagogique
    Les élèves comparent leur modèle avec des images médicales réelles et répondent à des questions comme:

◦         « Localise l’aorte »

◦         « Pourquoi la paroi du ventricule gauche est-elle plus épaisse ? »
On peut aussi évaluer chaque élève en lui demandant de reconstruire un organe à partir de ses propres photos et d’identifier correctement ses différentes parties.

Bénéfices :

  • Amélioration de la compréhension spatiale des organes.
  • Apprentissage plus actif et concret, puisque l’élève produit son propre modèle.
  • Méthode adaptable à d’autres disciplines :

◦         Histoire : reconstruction d’artefacts archéologiques

◦         Géométrie : visualisation de solides complexes

◦         Arts : reconstitution de sculptures

Épisode 6 - Stupéfiante GAN -22minutes 17

Lien vers l’épisode 6 en fin de document [viii]

Avec les Réseaux Génératifs Antagonistes (GAN), nous entrons dans l’univers d’une science-fiction devenue réelle.  Ces puissants outils permettent de créer des images, des sons et des textes d'un réalisme époustouflant, poussant les frontières entre la réalité et l’artifice.

Principe des GAN

 Un GAN (Generative Adversarial Network) est composé de deux réseaux de neurones qui travaillent en opposition.

Le premier, appelé générateur, a pour tâche de créer de nouvelles données qui ressemblent à de vraies données.

 Le second, appelé discriminateur, a pour rôle de distinguer si une donnée est réelle ou fabriquée par le générateur.

 Le fonctionnement ressemble à un jeu entre un faussaire et un détective. Le générateur produit des exemples et les présente au discriminateur. Ce dernier analyse chaque exemple et indique s’il est vrai ou faux. Si le discriminateur repère correctement une création du générateur, celui-ci apprend de son erreur et ajuste ses prochaines créations pour mieux tromper le discriminateur. À l’inverse, si le discriminateur se laisse tromper, il ajuste ses critères pour mieux détecter les faux exemples à l’avenir.

 Ce processus se répète des milliers de fois. Au fil du temps, le générateur devient de plus en plus habile à créer des données réalistes, tandis que le discriminateur devient plus précis pour identifier les faux. L’objectif final est que le générateur puisse produire des données presque indiscernables des vraies données, qu’il s’agisse d’images, de sons ou de textes.

En résumé, un GAN fonctionne grâce à l’opposition continue entre deux réseaux : l’un qui crée et l’autre qui juge, et c’est cette compétition qui les fait progresser tous les deux.

Les avantages et les limites éthiques de l’utilisation des GAN avec le 3D-R2N2

Les GAN combinés au 3D-R2N2 permettent de générer rapidement des modèles 3D réalistes à partir de simples images 2D, offrent des applications variées et innovantes.

Dans les jeux vidéo et la réalité virtuelle, ils facilitent la création de personnages, véhicules ou environnements complexes sans passer par la modélisation manuelle, ce qui fait gagner beaucoup de temps et stimule la créativité.

 En design industriel et en architecture, ces technologies permettent de prototyper virtuellement des meubles, véhicules ou pièces mécaniques, testant différentes variantes avant la production réelle et réduisant ainsi coûts et délais.

 Dans le domaine éducatif et scientifique, elles offrent la possibilité de visualiser des objets complexes, comme des organes humains, des molécules ou des structures géologiques, rendant l’apprentissage plus interactif et concret.

Elles trouvent aussi des applications en mode, impression 3D et simulations professionnelles, comme la formation des pilotes ou la planification urbaine, en générant des environnements réalistes pour l’entraînement ou la démonstration.

Cependant, cette puissance technologique s’accompagne de questions éthiques importantes. Les GAN peuvent reproduire des biais présents dans leurs données d’entraînement, excluant certaines formes ou populations. Ils soulèvent des enjeux de propriété intellectuelle, car ils génèrent des créations dérivées d’œuvres existantes.

 Il y a le risque de fausse représentation. Un GAN peut générer des objets ou des scènes très réalistes qui n’existent pas dans la réalité, ce qui peut être utilisé pour tromper, falsifier ou diffuser de fausses informations. Cette association est entre autres responsable de la génération de ce que l’on nomme les Deep Fakes.  Le principal danger des Deep Fakes est qu’ils peuvent tromper notre perception de la réalité. En générant des vidéos, images ou voix très réalistes de personnes disant ou faisant des choses qu’elles n’ont jamais faites, ils peuvent nuire à la réputation, manipuler l’opinion publique, faciliter la fraude, l’usurpation d’identité et d’atteinte à la réputation.

Enfin, l’automatisation de la création peut avoir un impact sur l’emploi et la créativité humaine.  La génération automatique d’objets 3D pourrait remplacer certaines tâches de design ou de modélisation, soulevant des questions sur la valeur du travail humain.

 Si des données sensibles sont utilisées, des questions de confidentialité apparaissent.

 La puissance des GAN et des modèles 3D comme le 3D-R2N2 offre des possibilités incroyables de création, avec un énorme potentiel éducatif, mais leur utilisation implique de réfléchir sérieusement à la propriété, à la véracité, aux biais, à l’emploi et à la confidentialité.

Elle doit être réfléchie et encadrée pour éviter des dérives éthiques et sociales.

Épisode 7 - Le spectaculaire Transformer - 20 minutes

Lien vers l’épisode 7 en fin du document [ix]

Ces architectures d'intelligence artificielle révolutionnent le traitement du langage naturel et bien au-delà. On y présente comment fonctionnent les LLM comme GPT, Gemini, Mistral, etc.  Dans cette vidéo, découvrez comment ces modèles comprennent et génèrent le langage de manière innovante.  Ils ne regardent pas mot par mot mais une phrase à la fois grâce à leur mécanisme d’auto-attention. Ces modèles très puissants ne sont apparus qu’en 2017, c’est à dire hier à l’échelle humaine.  Ils ont marqué l’arrivée d’une nouvelle ère en intelligence artificielle.

Les transformers expliqués simplement

Un transformeur est un modèle qui comprend les relations entre les mots d’un texte grâce à l’attention, et qui utilise une structure répétée de couches pour produire une représentation utile pour traduire, résumer ou générer du texte. Ce type de réseau de neurones est conçu pour traiter des données séquentielles (comme du texte), mais sans passer par une lecture étape par étape comme les RNN.

Attention

Au lieu de lire un mot après l’autre, le transformeur regarde tous les mots d’une phrase en même temps. Grâce au mécanisme appelé self-attention, il calcule l’importance de chaque mot par rapport aux autres. Exemple : dans la phrase « Le chat dort sur le canapé », il comprend que « chat » est lié à « dort » plus qu’à « canapé ».

Architecture en couches

Un transformeur est composé de plusieurs couches où se répètent deux opérations principales

  1. 1.          Self-attention (pour relier les mots entre eux).
  2. 2.          Feed-forward network (un petit réseau qui affine l’information mot par mot).

Encodage et décodage :

  • L’encodeur transforme la phrase en une série de vecteurs riches en sens.
  • Le decodeur utilise ces vecteurs pour générer une sortie (traduction, résumé, suite de texte, etc.).

 Comme le transformeur traite tout en parallèle (et non pas mot par mot comme un RNN), il est beaucoup plus rapide et capable de saisir des relations à longue distance dans un texte.

Exemples connus de technologies et d’applications qui reposent sur les transformers

Que ce soit pour traduire, comprendre, générer du texte, analyser des images ou traiter de l’audio, la plupart des outils d’IA récents reposent sur les transformeurs.

Google Translate utilise des modèles de type transformer pour traduire les textes d’une langue à une autre.

Assistants conversationnels et IA génératives :

  • ChatGPT (OpenAI),
  • Claude (Anthropic),
  • Gemini (Google),
  • LLaMA (Meta).
    Tous fonctionnent grâce à des transformeurs entraînés sur de grandes quantités de textes.

BERT (Google) : sert pour comprendre le sens des recherches dans Google Search.

Vision Transformers (ViT) : utilisés pour classer des images, détecter des objets, ou dans des systèmes de reconnaissance faciale.

Les modèles de synthèse vocale modernes (text-to-speech) utilisent des transformeurs.

Épisode 8 - COMMENT L'IA PEUT DÉTRUIRE LE MONDE ! 43 minutes43

Lien vers l’épisode 8 en bas du document [x]

Cette vidéo nous convainc du contraire !

Il est souhaitable de regarder cette longue vidéo qui présente une synthèse de tout ce qui a été traité jusqu’à maintenant.

Malgré les idées reçues, l’intelligence artificielle est loin d'être une menace autonome capable de contrôler ou de détruire notre monde. En fait, les véritables enjeux sont beaucoup plus subtils que ça.

Des CNN aux Transformers, cette vidéo explore leurs capacités impressionnantes et leurs limites distinctes. Il importe de dissiper les peurs : pourquoi ces modèles d'IA, bien qu'avancés, sont simplement des outils créés par des humains pour des tâches spécifiques.

On y revoit les bases des CNN, RNN, 3D-R2N2, GANs, et Transformers.  Ils ne peuvent pas prendre le contrôle de manière autonome. On y discute de l'anthropomorphisme de l'IA et ses implications pour notre avenir ainsi que des contraintes techniques, éthiques, et matérielles de l'IA actuelle. On y présente une analyse des défis et opportunités créés par l'automatisation et les outils d'IA dans différents secteurs.

Deuxième saison des vidéos de DomiGeek

1 archi

J’ai eu accès sur YouTube à quatre vidéos de cette nouvelle série.  En voici les titres suivis du lien en bas du document vers les vidéos.

Les arbres décisionnels - L'humain, architecte de son propre destin - Épisode 1 

Lien vers la vidéo en bas du document [xi]

Les régressions linéaires et logistiques - L'humain, architecte de son propre destin - Épisode 2

Lien vers la vidéo en bas du document [xii]

KNN, SVM, Bayésien et K-Means - L'humain, architecte de son propre destin -

Épisode 3

Lien vers la vidéo en bas du document [xiii]

Les types d'apprentissages - L'humain, architecte de son propre destin - Épisode 4

Lien vers la vidéo en bas du document [xiv]

 Les vidéos présentent une information parfois complexe. À vous de voir, en les regardant, si ce niveau de détail vous convient.  Le texte qui suit en propose une synthèse : il présente, de manière simple et accessible, les principaux algorithmes d’apprentissage automatique (ou machine learning en anglais) mentionnés dans ces vidéos.

Le machine learning est une branche de l’intelligence artificielle qui consiste à apprendre à une machine à partir de données. Plutôt que de suivre uniquement des règles programmées à l’avance, la machine reçoit un grand nombre d’exemples et apprend à en dégager des régularités. Elle peut ensuite utiliser ces apprentissages pour prendre des décisions ou faire des prédictions.

Les principaux algorithmes d’apprentissage automatique

Quand on parle d’intelligence artificielle et de machine learning, on entend souvent parler « d’algorithmes ». Mais que font-ils exactement ? En réalité, ce sont des méthodes différentes pour apprendre à partir des données. Chaque algorithme a sa logique, ses forces, et ses applications.

  • Les arbres de décision fonctionnent comme un jeu de questions-réponses. On suit un chemin de conditions simples (âge, revenu, statut, etc.) jusqu’à arriver à une prédiction. C’est un modèle visuel, facile à comprendre et très utilisé.
  • La régression linéaire cherche à tracer une droite (ou un plan) qui relie des données entre elles. Elle sert à prédire des valeurs continues, comme le prix d’une maison en fonction de sa taille.
  • La régression logistique s’intéresse plutôt aux choix binaires (oui/non, 0/1). Elle transforme les résultats en probabilités, par exemple pour prévoir si un client achètera ou non un produit.
  • Les k-plus proches voisins (KNN) reposent sur une idée simple : on classe un nouvel élément en fonction de ses voisins. Si un fruit inconnu ressemble surtout à des pommes déjà connues, on le classe comme une pomme.
  • Les machines à vecteurs de support (SVM) cherchent à tracer la meilleure frontière entre deux groupes. L’image la plus parlante : une ligne à la craie dans une cour d’école qui sépare deux bandes d’élèves en laissant le plus d’espace possible entre elles.
  • Le classifieur Naïve Bayes utilise la probabilité pour estimer à quelle catégorie appartient une donnée, en se basant sur différents indices. Il est « naïf » parce qu’il suppose que ces indices sont indépendants. Il est par exemple très utilisé pour filtrer les spams.
  • Enfin, lalgorithme K-Means appartient à l’apprentissage non supervisé : il ne part pas de catégories prédéfinies, mais regroupe les données selon leurs ressemblances. C’est comme créer des groupes d’élèves par centres d’intérêt sans indication du professeur.

En résumé

Ces algorithmes n’apprennent pas tous de la même façon : certains prédisent à partir d’exemples connus (apprentissage supervisé), d’autres découvrent des structures cachées dans les données (apprentissage non supervisé). Certains sont très simples et intuitifs (comme les KNN ou les régressions), d’autres plus sophistiqués (comme les SVM ou K-Means).

 Ensemble, ils forment une boîte à outils essentielle de l’intelligence artificielle.

EN CONCLUSION

 Une revue de l’utilisation des algorithmes pour orienter le travail des réseaux de neurones et une journée avec mon compagnon IA

Comment les réseaux de neurones apprennent grâce aux algorithmes

Les réseaux de neurones fonctionnent un peu comme un cerveau artificiel. Mais derrière, ce sont les algorithmes qui guident tout le processus d’apprentissage. Voici les grandes étapes, expliquées simplement :

  1. Mettre les connexions en place
    Au départ, le réseau ne sait rien. On donne des valeurs de départ au hasard aux connexions entre neurones (les « poids »). Des méthodes spéciales (Xavier, He) aident à bien équilibrer ces débuts.
  2. Faire passer une information (Forward)
    On envoie une donnée (par exemple, une image). Chaque couche de neurones la transforme avec des calculs. À la fin, le réseau donne une réponse provisoire : « c’est un chat » ou « ce n’est pas un chat ».
  3. Comparer avec la bonne réponse
    Un algorithme de fonction de perte mesure l’erreur : est-ce que la prédiction est correcte ? Si le réseau se trompe, on calcule de combien.
  4. Revenir en arrière (Backpropagation)
    L’erreur repart dans le réseau. Les algorithmes calculent comment corriger chaque connexion pour que la prochaine fois la réponse soit plus juste.
  5. Ajuster les connexions (Optimisation)
    Grâce à des méthodes comme SGD ou Adam, le réseau ajuste un peu ses poids. Le taux d’apprentissage détermine si ces corrections sont petites ou grandes.
  6. Répéter encore et encore
    On recommence ce cycle des milliers de fois, avec plein d’exemples. Petit à petit, le réseau apprend à mieux répondre.
  7. Tester ses connaissances
    Une fois entraîné, on lui donne de nouvelles données qu’il n’a jamais vues. On mesure sa précision pour vérifier s’il a vraiment appris, et pas seulement mémorisé.
  8.  Éviter qu’il « triche »
    Pour qu’il ne devienne pas trop spécialisé sur les exemples d’entraînement, on utilise des techniques de régularisation comme le Dropout (éteindre des neurones au hasard) ou la pénalisation des poids.

Un réseau de neurones apprend comme un élève qui fait des exercices. Il essaie, se trompe, reçoit une correction, ajuste sa méthode… et recommence jusqu’à s’améliorer.

Exemple :  Comparaison ChatGPT4 et ChatGPT5.

ChatGPT avant (plus « mou »)

Question : Quels sont les dangers de l’IA ?

Réponse :
« Alors, les dangers de l’intelligence artificielle sont nombreux et variés. Cela dépend beaucoup du domaine d’application et de la manière dont l’IA est utilisée. Par exemple, certaines personnes craignent la perte d’emplois, tandis que d’autres parlent de risques éthiques ou même existentiels. On peut aussi mentionner les biais, la surveillance, les armes autonomes, etc. Mais il est important de noter que l’IA apporte aussi beaucoup d’avantages et que les chercheurs travaillent activement à réduire les dangers potentiels… »

Ici, la réponse est floue, trop générale, pleine de « ça dépend », et n’aide pas vraiment à retenir l’essentiel.

ChatGPT-5 (plus direct et précis)

Question : Quels sont les dangers de l’IA ?

Réponse :
« Les principaux dangers de l’IA sont :

  1.  Biais et discriminations : si les données sont biaisées, l’IA reproduit ces injustices.
  2.  Perte d’emplois: certaines tâches répétitives ou routinières sont automatisées.
  3.  Surveillance de masse : l’IA peut renforcer le contrôle des populations.
  4. Désinformation : avec les deepfakes ou la génération de contenus trompeurs.
  5. Autonomie des systèmes : risque si des IA critiques (armes, infrastructures) échappent au contrôle humain.

En résumé, l’IA est puissante mais doit être encadrée pour éviter des usages nuisibles. »

Ici, la réponse est structurée, hiérarchisée, mémorable.

La différence

  • Avant : beaucoup de nuances, mais peu de clarté.
  • Maintenant (ChatGPT-5) : une liste claire, avec des points forts, tout en restant équilibré et rigoureux.

Veux-tu que je t’explique quel algorithme précis (ex. RLHF, fonction de récompense, régularisation) rend ChatGPT-5 plus capable de faire ça ?

Vous avez dit :

Pourquoi pas

ChatGPT a dit :

Parfait Alors allons un peu sous le capot.

ChatGPT-5 n’est pas devenu plus clair « par magie ». Ce sont des algorithmes précis qui ont façonné ce style de réponse. Voici les principaux :

1. RLHF – Reinforcement Learning with Human Feedback

C’est l’algorithme le plus décisif.

  • Des formateurs humains comparent plusieurs réponses d’IA à la même question.
  • Ils disent : « Celle-ci est trop vague », « Celle-là est claire et bien structurée ».
  • Un modèle de récompense apprend ces préférences.
  • Ensuite, l’IA est optimisée par renforcement pour donner plus souvent les réponses appréciées.

Résultat : ChatGPT-5 apprend à privilégier la clarté et à réduire le côté « moelleux » ou verbeux.

2. Algorithmes de régularisation

Ces techniques empêchent le modèle de :

  • Se répéter,
  • Donner des phrases vides de sens,
  • Ou écrire trop long par défaut.

Exemple : pénalisation de la longueur → si le modèle fait trop de bavardages, son score baisse.

3. Optimisation des poids

Des algorithmes comme Adam ou RMSprop servent à ajuster finement les milliards de paramètres du réseau de neurones.  Cela aide le modèle à apprendre des réponses plus efficaces sans « s’embrouiller » dans les détails.

4. Instruction tuning (ajustement aux instructions)

C’est un entraînement spécial où on donne des exemples :

  • Question : « Qu’est-ce qu’un arbre de décision ? »
  • Bonne réponse : 3 phrases, simples, avec un exemple.
  • Mauvaise réponse : 12 phrases vagues et redondantes.

L’algorithme apprend à suivre le style attendu, pas seulement à donner une réponse correcte.

5. Décodage contrôlé (sampling algorithms)

Quand ChatGPT-5 « écrit », il choisit le mot suivant selon des probabilités.

  • Des algorithmes comme Top-k sampling ou nucleus sampling l’aident à rester varié, mais pas trop aléatoire.
  • Des pénalités évitent les répétitions ou les tournures « molles » du genre « cela dépend beaucoup du contexte… » sauf si c’est vraiment justifié.

En combinant ces algorithmes, ChatGPT-5 donne des réponses plus structurées, précises et adaptées au style humain préféré.

Une journée avec mon compagnon IA

Le matin, mon téléphone me réveille doucement… ou pas si doucement, selon l’humeur de mon IA, qui a choisi la playlist la plus entraînante pour me sortir du lit. En ouvrant mes courriels, mon assistant invisible a déjà trié les spams : les messages promettant un million de dollars ou un iPhone gratuit sont déjà mis de côté.

Pendant que je prépare mon café, mon application de météo me conseille de prendre un parapluie ou de changer de veste, tandis que l’IA me suggère une playlist énergisante pour commencer la journée du bon pied. Même mon grille-pain est devenu « intelligent » : il ajuste le temps de cuisson selon mon humeur matinale détectée par les capteurs de mon téléphone.

En route pour le travail, Google Maps, mon copilote silencieux, trace le chemin le plus rapide et m’évite les bouchons… comme s’il me disait : « Par-là, tu gagnes dix minutes. » Même mon assistant vocal dans la voiture peut me rappeler un rendez-vous important, me suggérer une station-service sur le trajet ou m’alerte si un ami proche se trouve à proximité. Parfois, il me propose même un café dans un petit bistrot sur le trajet que je n’avais jamais remarqué.

Pendant ce temps, Spotify me bombarde de recommandations musicales qui semblent étrangement adaptées à mon humeur. Sur les réseaux sociaux, l’IA choisit les posts à me montrer : photos d’amis, mèmes qui me feront rire, vidéos virales… et parfois même des articles ou des événements locaux qui pourraient m’intéresser. Elle anticipe mes envies avant même que je les exprime.

Au travail, mon IA m’aide à trier mes documents et à rédiger mes courriels. Elle corrige l’orthographe, suggère des formulations plus claires et résume des rapports interminables en quelques phrases faciles à lire. Elle peut même proposer des idées de présentation pour mes réunions, comme un collègue discret et ultra-efficace.

Je passe ensuite sur un site de shopping en ligne : l’IA murmure subtilement à l’oreille : « Et si tu achetais ce petit objet, il irait parfaitement avec ce que tu as déjà acheté… » Elle peut aussi m’alerter sur des promotions vraiment pertinentes ou éviter des doublons dans mes commandes. Elle peut aussi suggérer des cadeaux pour un anniversaire proche, avant même que je m’en rende compte.

Même mon compte bancaire a son garde du corps : chaque transaction est analysée pour repérer les anomalies, comme si l’IA disait : « Hé, ça, c’est louche. » et m’alerte en cas de dépense suspecte. Elle peut également prévoir mon budget du mois suivant et m’indiquer où je peux économiser.

 Le soir, mon IA continue de m’accompagner : elle planifie mes repas selon mon régime alimentaire, me propose un film correspondant à mon humeur du moment, ajuste la luminosité et la température de mon À la fin de la journée, je n’ai peut-être pas toujours remarqué sa présence… mais partout où je suis, l’IA est là, un compagnon invisible, parfois espiègle, toujours attentif, qui organise, conseille, protège et rend chaque instant un peu plus simple, efficace et surprenant.

L’idée de cet article d’initiation à l’intelligence artificielle m’est venue après avoir regardé la série de vidéos de DomiGeek. Je l’ai construit autour de mes propres questions, pour mieux comprendre des notions comme les réseaux de neurones, l’étiquetage des données, et d’autres concepts parfois abstraits.

 Mes assistants ChatGPT et Le Chat de Mistral ont servi à la fois de source d’information et d’aide à la rédaction et à l’édition des textes. J’espère qu’ils n’ont pas trop « halluciné » — et si certains lecteurs remarquent des imprécisions, je les invite à nous le signaler.

Ninon-Louis LePage

 


[i]  L’humain architecte de sa propre destruction.

  https://www.youtube.com/watch?v=6yykZFFhC6M

[ii]  JACQUARD, JOSEPH MARIE, (1752-1834), MÉCANICIEN-TISSERAND

   https://www.napoleon.org/histoire-des-2-empires/biographies/jacquard-joseph-marie-1752-1834-mecanicien-tisserand/

[iii]  Épisode 1

  https://www.youtube.com/watch?v=9gEX0BeV6ww

[iv]  Lien vers l’épisode 2

  https://www.youtube.com/watch?v=SswdKKFGG_Y

[v]  Lien vers l’épisode 3

  https://www.youtube.com/watch?v=ZC564rRE6F0

[vi]  Lien vers l’épisode 4

  https://www.youtube.com/watch?v=WMvKWcjk2Gk

[vii]  Lien vers l’épisode 5

  https://www.youtube.com/watch?v=xIee-lSibIo

[viii]  Lien vers l’épisode 6

  https://www.youtube.com/watch?v=pCVL7nWp1jA

[ix]   Lien vers l’épisode 7

  https://www.youtube.com/watch?v=hMgsWE72Jfc

[x]  Lien vers l’épisode 8

   https://www.youtube.com/watch?v=KGSn4Ol1tRo

 

Dernière modification le mardi, 16 septembre 2025
Ninon Louise LePage

Sortie d'une retraite hâtive poussée par mon intérêt pour les défis posés par l'adaptation de l'école aux nouvelles réalités sociales imposées par la présence accrue du numérique. Correspondante locale d'Educavox pour le Canada francophone.