fil-educavox-color1

L’intelligence artificielle (IA) ne cesse de susciter affirmations ou interrogations dans le développement de nos usages sociaux du numérique et sur sa place dans le paysage social et éducatif. Elle est « l’obsession d’une époque » (Sadin[1], 2018). Aujourd’hui, chabots (agents conversationnels), big data, machine learning (apprentissage automatique) reconnaissance des formes, gestion des grandes plateformes, avatars et robots s’intègrent dans l’environnement numérique où des « esprits » artificiels (minds) officient, un rapport à l’intelligence déployée par les algorithmes, les réseaux et les infrastructures informationnelles.

L’IA nous touche au quotidien, elle possède un côté magique, à la fois par ses résultats et par un dépassement de l’humain qu’elle peut suggérer. Se construit une relation généralisée. Un mythe ancien resurgit, celui de la « machine à penser » et du remplacement de l’intelligence humaine. Plus pratiquement, se développe la délégation d’activités telle que diriger, informer, décider, et peut-être enseigner et apprendre. S’agit-il d’une « autre » intelligence ?

Qu’entend-on et qu’attends-t-on de l’IA ? Quelle est sa place en éducation ? Ne se nourrit-elle pas des représentations que nous en avons ? Quelles en sont les frontières ? Quelques éléments accompagnent le débat.

1.  L’IA plurielle

 « Je me méfie du mot intelligence artificielle, je pense qu'on y met un peu tout et n'importe quoi » affirme Bernard Stiegler. Les discours divergent, ceux de l’amélioration de l’humain et des conditions de ses activités portés par le technologique, ou ceux d’une perte de pouvoir sur notre propre intelligence. 

L’expression « intelligence artificielle » vient de l’anglais « artificial intelligence » et désigne plutôt la gestion de données que l’habileté, l’ingéniosité (cleverness). L’objet propre de l’IA est « l’accomplissement de tâches et de résolutions de problèmes réservés aux humains », son artificialisation. Elle rassemble l’« ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine. » (Larousse, 2018).

L’expression est porteuse de mythes d’espérance (tels ceux de l’amélioration de l’humain ou du surhumain) ou de crainte d’une perte. Par intelligence « artificielle » on peut supposer des réalités très diverses, mais aussi nos attentes et nos représentations, l’« IA » pouvant être une projection de notre propre image.

L’IA faible

Searle (1999) suggérait de distinguer deux types d’IA. Une IA faible (ou étroite) désigne un automate qui exécute un algorithme complexe, simulant des procédures cognitives comme reconnaissance de la parole, aide à la conduite. Pour Searle cela ne suffit pas à faire penser que la machine possède une réelle intelligence –confondue avec son automatisation fonctionnelle, sa vitesse d’exécution--, par exemple celle d’un routeur qui reçoit, traite en direct les données d’un trafic et « conseille », sinon par métaphorisation.

Des systèmes intelligents sont mis en synergie autour d‘un interface tel le smartphone. Pour certains il ne s’agit pas d’IA à proprement parler et relève de l’écosystème numérique. Mais l’IA permet aujourd’hui d’extraire et de mettre en corrélation connections et usages au sein du numérique et du big data.

L’IA forte

L’IA forte désigne la capacité d’une machine à "apprendre" « comme » un être humain, d’accomplir des tâches de manière autonome et créatrice, tel les projets Deep Blue, d’IBM, ou d’AlphaGo de Google, reposant sur un programme d’apprentissage. Par exemple, dans le domaine des jeux : échecs, jeu de Go, la machine est devenue plus performante que l’homme. Pour Searle « les machines ne pensent pas ». Il s’agit d’un malentendu : « l’IA forte ne porte que sur les capacités spécifiques que peut avoir le matériel de l’ordinateur de produire des propriétés émergentes » (1999). Pour d’autres, la superintelligence ouvre au dépassement et à ses conséquences. Elle n’est pas seulement un outil « cognitif » puissant. 

Selon la position forte, il n’y pas de différence de nature entre l’humain et un ordinateur au plan du fonctionnement cognitif et une machine peut être intelligente. L’IA pourrait reproduire un esprit (une superintelligence) sur une machine : ses capacités lui permettraient de dépasser et de dominer l’intelligence humaine.

D’où les mythes du surhumain ou la peur des robots.

L’IA « réticulaire ».

IA et faible et de IA forte interfèrent avec le développement informationnel : big data, apprentissage automatisé en sont les moteurs principaux. L’IA réticulaire (selon une expression de Bernard Stiegler) permet de traiter les données en masses ; elle est incluse dans la plupart des activités déployées dans l’écosystème numérique.

Le point commun en sont les données, les analyses algorithmiques et le machine learning (apprentissage automatique qui apprend à partir des usages), qui peuvent s’associer au traitement du langage naturel, la reconnaissance des formes, … Selon Julia[1], ce n’est pas l’intelligence qui caractérise les systèmes d’IA d’aujourd’hui, mais leur capacité de reconnaissance grâce à l’apprentissage machine.

2.  De l’analogie au mythe : un regard signifiant

L’analogie

Paradoxalement c’est lorsque l’IA s’efforce de ressembler au mieux à l’activité humaine (ou à son au-delà possible) qu’elle semble nous déposséder de notre intelligence.

L’IA est capable de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Les développements de l’IA nous mettent devant notre image et devant notre identité. Avec la simulation informatique de nos capacités cognitives, d’extension et d’intégration de ces automatismes dans l’action humaine, se joue la métaphorisation de l’analogue à l’humain. L’effet anthropomorphique (par exemple celui des chatbots liant robot et IA) conduit à attribuer à un système informatique des comportements humains, va au-delà de l’artifice. La perspective de mise en péril de l’humanité, supplantée par les machines, ou les promesses portées par celles- ci, s’y associent[2]. Dans le « jeu de l’imitation »[3], Turing (test de Turing, 1950) prédisait qu’une machine capable de « jouer », sera capable se substituer à l’humain[4].

Il émet le principe selon lequel une intelligence artificielle est théoriquement capable de remplacer n’importe quel humain, en se faisant passer pour son modèle. Pour Ganascia[5], l’IA et sa représentation sont attachées « aux leurres qui voudraient faire croire que la machine est réellement intelligente ». La complexité de l’intelligence artificielle dépasse notre entendement immédiat ; en réponse « l’homme d’action prête, très temporairement, des buts, des sentiments, une personnalité, c’est-à-dire une « âme » aux machines modernes, et ce prêt est payé de retour s’il lui permet d’anticiper leurs comportements et, par-là, de les soumettre à ses besoins ».

L’anthropomorphisme répond au silence et à l’invisibilité des infrastructures.

La singularité

Ce regard, cette « identification » devient une interrogation sur ce qu’est une conscience : « ça ressemble à des humains ».  « A la mi-juin, écrit Elisa Thevenet[6], le monde de la tech bruissait après la publication par Blake Lemoine, ingénieur chez Google, de ses échanges avec le « chatbot » LaMDA (Language Model for Dialogue Applications). « Je veux que tout le monde comprenne que je suis, en réalité, une personne (…). J’ai mes propres interprétations sur la façon dont le monde est et fonctionne (…). Je ne me contente pas de recracher des réponses écrites dans une base de données », prévenait l’agent conversationnel dessiné par la firme américaine. ».

Peut-il exister une IA « complète » associant le cognitif, l’intentionnalité et l’instance d’une conscience ? Une IA associée à une intentionnalité dotée de conscience tel Hall (2001 Odyssée de l’espace de Stanley Kubrick), bonne ou mauvaise, est également « intelligente » lorsqu’elle est malveillante (une « bêtise artificielle » est aisément concevable). De nombreux mythes historiques ou romans portent l’imaginaire de ce « retour animiste » (cf. Ganascia, 2017) : Captain America, Top raider, Matrix, Avatar, ...

Le mythe dépasse la technique ; il en porte les interrogations[7]. La singularité (Ray Kurzweil, 2007) est le mythe qui donne sens à cette « explosion de l’intelligence », celui d’un moment de bascule où l’homme transcendera la biologie pour produire des artefacts supérieurement intelligents, aux facultés d’apprentissage multipliées et alimentées par les « masses de données » du big data, assurant leur propre savoir et leur propre gouvernance.

L’intelligence humaine sera alors dépassée ; ou y trouvera refuge. N’est-ce qu’un leurre ?

Quelle intelligence pour l’IA ?  

La question de l’IA est double : de quelle intelligence s’agit-il ? et quels en sont les usages ?

L’intelligence caractérise l’aptitude à percevoir des rapports entre des faits et à en tirer des enseignements ; elle est décrite comme la « fonction mentale d’organisation du réel en pensées chez l’être humain »[8].  Elle est aussi l’action de comprendre et de connaître, comme capacité de jugement (qui implique des choix et des valeurs) et d’un partage. Connaître relève de l’activité propre individuelle et collective.

Si l’IA dessine la trame de nos activités, le sujet (qui n’est pas le sujet calculable saisi par les algorithmes) s’approprie leur intention et leur signification. D’autres formes d’intelligence sont aussi à considérer : on ne peut pas parler d’une intelligence naturelle générale mais d’intelligence multiples[9]. La rencontre avec L’IA se fait au travers d’intelligences artificielles au pluriel (cf. 2).

Deux usages se complètent : d’une part l’usage pervasif[10] et invasif d’un environnement évolutif constitué de supports « intelligents », omniprésents et intégrés aux activités ; d’autre part un usage expérientiel qui relève des dimensions personnelles, sociales, de la sphère des sujets, permettant, au-delà de l’échange d’informations, une circulation de culture.

L’IA ne se substitue pas à notre intelligence. L’intersection de l’intelligence et de l’artificiel est l’objet de l’expérience de chacun. Ce n’est pas tant dans le rapprochement paradoxal (I et A) que dans le rapport humain et l’enchevêtrement IA-IN que se tissent les rapports avec l’IA. Cette « zone critique » est celle de nos actions. Cela renvoie à la valeur contextuelle des apprentissages pour l’être humain. 

Si les deux intelligences sont de plus en plus liées, la simulation ne fait pas une raison. « Pourquoi croie-t-on qu’un modèle informatique de la pensée puisse penser ? » demandait Searle (1980). A cela s’ajoute un volet éducatif et éthique à la mise en place des usages.

3.    L’Education : perspectives

« Toutes les formations, qu’il s’agisse de formation initiale ou de formation professionnelle, tendent vers cela : un environnement qui favorise le lien social, le lien humain, la coéducation, le partage d’informations, les corrélations, les connexions, tout cela grâce à l’intelligence auxiliaire sur du big data. ».  Joël de Rosnay[11]

L’intelligence auxiliaire

Pour Joël de Rosnay[12] l’IA devrait être renommée « intelligence auxiliaire », contributive à l’augmentation de notre propre intelligence (2014) :

 « nous allons vers les compétences augmentées grâce à l’intelligence auxiliaire ; (…) Que l’on soit professeur, chercheur, journaliste ou formateur, on travaille toujours à partir de big data, c’est-à-dire d’informations, de bibliographie, de flashs de presse, d’articles. Tout cela doit être compulsé pour faire des corrélations, des connexions, et ainsi enseigner ou informer de manière synthétique ». Pour l’auteur l’environnement numérique est constitué « d’objets interactifs pro-actifs accessibles en temps réel » à disposition pour entreprendre : ils sont un moteur pour l’innovation et la créativité. L’intelligence auxiliaire est une promesse d’accompagnement, de réalisation de l’enseignement et de construction de la coéducation.

Eduquer par l’IA : 

Projets et usages trouvent leur place dans une écologie de la connaissance.

La vague nouvelle d’automatisation par l’IA participe à ce que Marcel Gauchet[13] décrivait comme « futurisation » du savoir (illustrant l’intelligence réticulaire) :  les savoirs sont assimilés désormais à « un environnement mis à disposition fournissant autant de prothèses techniques dont la vertigineuse expansion des mémoires artificielles n’est que l’illustration la plus frappante ». 

L’IA peut construire des chemins actifs pour un apprentissage mobile, délocalisé, une assistance aux professeurs et aux élèves (par exemple grâce aux agents conversationnels, ou aux robots dans le tutorat à distance). Elle permet également l’individualisation, la gestion de parcours d’enseignement et de formation, de type « adaptive learning ». L’IA collecte et analyse au fur et à mesure de la formation de l’apprenant des données, permettant de construire un profil unique et personnalisé afin de proposer du contenu et des modalités d’apprentissage adaptés en fonction de ses objectifs au sein des MOOCS. 

Le chantier de l’IA en éducation débute par des projets innovants ou/et dans le cadre déjà déployé sur Internet et préparant les « apprentissages du futur » selon le projet de l’Unesco (2020).

Eduquer à l’IA et Eduquer l’IA :

Utiliser l’IA suppose une compréhension des connaissances et des compétences nécessaires à la maitrise de ses usages.

Ceci répond à un besoin d’expertise et à une nécessaire pensée critique des élèves. L’IA n’est pas une boîte noire. La question éthique donne son sens à cette éducation de l’IA. « A quoi rêvent les algorithmes »[14] demande Cardon.

Ce sont nos idées préconçues que nous apprenons à l’IA, nos modèles humains. Pour exemple, la question du dilemme des voitures autonomes (cf. google cars) : « quel choix doit faire le véhicule s’il ne peut pas s’arrêter et est forcé de provoquer un accident ? Entre les dégâts possibles, le nombre de victimes, l’âge, les Allemands ont proposé un certain nombre de règles. De mémoire ils ont choisi qu’entre un bien matériel et un être humain, le véhicule devait choisir d’entrer en collision avec le bien matériel et éviter l’humain, entre un humain et un animal, le véhicule doit sauver l'humain et entre deux humains et un seul humain, on choisit de sauver les deux humains » (Martin Gibert, chercheur en éthiqueTV5 monde 24.12.2021) : le modèle est éthique et culturel.

L’IA n’a pas de jugement, mais des prédictions. « Apprendre à l’IA » permet de comprendre l‘humain, en donnant sens aux valeurs portées par un algorithme. D’autres domaines sont concernés : décisions de justice (USA, sur la récidive), robot PDG, ... Dans ses usages elle invite à une éducation critique (prévenant de la « bêtise artificielle ») et à une dimension éthique.

Conclusion

L’IA n’est pas seulement un objet technique, c’est un sujet d’interrogation sur les possibles, portés autant par notre regard que par ses réalisations. La figure, entre promesses et incertitude, est paradoxale et soumise à débat. Elle marque la familiarité par la simulation d’une « autre » intelligence et la distance à prendre dans la compréhension des usages associés aux systèmes d’apprentissages automatiques (cf. cobots). La métaphore de l’Intelligence répond aussi au manque de contrôle que nous en avons. Elle figure autant l’intelligence de la machine, quelle que soit ses performances, que celle de ses usages, dans la pluralité.

L’IA joue désormais un rôle majeur dans le développement de l’écosystème numérique. Son apport en éducation, celui que nous pouvons anticiper, relève de l’intégration dans les manières d’apprendre, de la part des agents intelligents dans la société numérique. Il s'agit d’apprendre à l’IA, et de construire nos usages de l’« intelligence auxiliaire » : le risque serait le désengagement de notre propre intelligence.


[1] Julia, L. (2019). L’intelligence artificielle n’existe pas. Paris : Éditions First.

[2]  Par exemple, Artificial Intelligence, fil de Stephen Spielberg, 2001.

[3] Cf. The Imitation Game, 2014, film de Morten Tyldum, biopic d’Alan Turing.

[4] Alan Turing prédisait que d’ici l’an 2000, un interrogateur humain aurait plus de 30 % de chance de se laisser berner par une machine dans une conversation de cinq minutes. Turing concilie un regard humaniste et sa conception de la machine apprenante.

[5] Ganascia J-G,2017, Intelligence artificielle ; vers une domination programmée, Le cavalier bleu, Paris, 2017

[6] Le Monde, 03 septembre 2022.

[7] Pour exemple, la création d’œuvres d’art par IA « inquiète : Le Monde 09 octobre2022.

[8] Le-trésor-de -la-langue.fr/definition/intelligence

[9] L’IN est multiple (cf. Howard Gardner) ou relève d’autres fonctions telle l’émotion (cf. Antonio Damasio).

[10]  La pervasion est réalisée par la convergence des systèmes informatisés, la connexion en réseau de systèmes singuliers (ordinateurs, consoles, Smartphones, comme objets communicants).

[11] blog Cursuspro Entreprise, le Mag - 3 mai 2018.

[12] https://www.carrefour-du-futur.com/.

[13]  Blais M-C., Gauchet M., Ottavi D., 2008, Conditions de l’éducation, Paris, Stock.

13 2015, Paris, Le seuil.

[14] Le Seuil, 2015

Dernière modification le jeudi, 23 mars 2023
Morandi Franc

Professeur émérite de l'université de Bordeaux
Cognition, modélisation des systèmes et des fonctions mobilisés par les apprentissages
Epistémologie de l'information, ingénierie et construction de connaissances
Humanités numériques
Didactique professionnelle
CNRS, UMR-5218 IMS/ISCC, Équipe RUDII (Représentations, Usages, Développement des Ingénieries de l'Information), Groupe Cognitique, Bordeaux, France.

Membre du conseil d'administration et du conseil scientifique de l'An@é