fil-educavox-color1

L’intelligence artificielle, objet de toutes les peurs et de tous les fantasmes nourrit depuis plus de soixante ans les espoirs les plus fous. Les peurs se résument à une vision de l’homme surclassé par les machines qu’il a crées et qui seraient devenues hors de contrôle et auraient pris tous les pouvoirs.

Les espoirs sont plus complexes et plus divers mais sont tous fondés sur une vision exponentielle du progrès dont l’aboutissement ne serait rien moins qu’une forme d’immortalité d’un humain augmenté et réparé par les ordinateurs de demain.

Entre science et science fiction, à coup de publications à succès ou d’annonces fracassantes dans la presse mondiale, l’intelligence artificielle fait incontestablement recette.

Le catastrophisme s’est toujours bien vendu et, de plus, la foi dans le progrès scientifique est de plus en plus remplacée par la prédiction de catastrophes certaines consécutives aux progrès de la technologie.

Il suffit au demeurant de les annoncer comme certaines pour éviter d’avoir à en évaluer la probabilité (la probabilité d’un événement certain est égale à 1). L’intelligence artificielle peut alors être comparée à une météorite géante lancée en direction de la terre et qui la heurtera de plein fouet  provocant ainsi la disparition de l’humanité comme cela s’était peut-être passé pour les dinosaures en d’autres temps. Plus sérieusement nous entrons incontestablement dans l’ère des machines intelligentes.

La prise de conscience de ce phénomène est récente mais depuis deux ans tout s’accélère. C’est un enjeu économique dont s’emparent de nombreuses entreprises et un enjeu politique majeur pour les états.

Le grand public commence à être touché par le biais d’articles de presses et d’émissions diverses. Pour ne citer que la France : le secrétaire d’état chargé de l’industrie, du numérique et de l’innovation et le secrétaire d’état chargé de l’enseignement supérieur et de la recherche ont lancé le 20 janvier 2017 la démarche « #France IA » dont le but avoué est de maintenir la place de la  France au premier rang de l’intelligence artificielle.

De fait l’intelligence artificielle se trouve au croisement de quatre avancées technologiques ou scientifiques.

Au croisement, cela veut dire qu’aucune d’entre elles ne permet seule des progrès significatifs mais que leur combinaison engendre ces mêmes progrès.

  • Première avancée :

La puissance de calcul…

C’est aussi le premier fantasme baptisé Loi de Moore, loi qui dit que la puissance de calcul des ordinateurs  double tous les dix-huit mois et traduit donc le caractère exponentiel de la croissance de cette puissance.

Il faut tout de même savoir que cette loi est parfaitement empirique, c’est-à-dire repose sur le constat de ce qui s ‘est passé jusqu’à aujourd’hui. Rien ne dit tout de même que cela va durer ainsi indéfiniment et la miniaturisation des processeurs actuels à base de silicium et de semi conducteurs semble avoir ses limites, limites que Jean Gabriel Ganascia  et quelques autres chercheurs nomment «  le mur du silicium ».

Certes la recherche se tourne vers d’autres composants que le silicium (le graphène entre autres) pour constituer de nouveaux processeurs et, en parallèle, se développent des algorithmes dits quantiques permettant une utilisation optimisée du silicium et multipliant considérablement les possibilités de calcul. Pourtant la révolution technologique que visent les pistes évoquées est encore loin d’être une réalité.

  • Deuxième avancée :

La profusion des données ( Big data) amassées de multiples façons et stockées aux quatre coins de le planète.

Les chiffres donnent le vertige  et je cite ceux que publie Jean Gabriel Ganascia  dans le livre qu’il a publié au Seuil : « Le mythe de la singularité faut-il craindre l’intelligence artificielle ?».

Les quatorze millions d’ouvrages de la Bibliothèque Nationale de France peuvent être codés numériquement sur quatorze mille milliards d’octets ou 14 téraoctets. Par comparaison le « poids » des échanges journaliers sur Facebook est d’environ 500 téraoctets, l’équivalent de quelques dizaines de BNF, quant au web dans son ensemble il a stocké environ 7 zettaoctets durant l’année 2015, ce qui fait 7 milliards de téraoctets et correspond à un demi milliard de fois la BNF.

  • Troisième avancée sans laquelle la deuxième ne serait rien :

Les logiciels d’apprentissage automatique et, en particulier, d’apprentissage profond (« deep learning »).

Ces systèmes d’apprentissage sont basés sur des réseaux de neurones artificiels et permettent à l’ordinateur de traiter les masses de données dont il est question ci-dessus pour en extraire ses propres connaissances.

Ce sont les outils qui rendent productives les données accumulées. Les champs d’utilisation de cette nouvelle génération de logiciels sont très divers mais citons la voiture sans chauffeur, la reconnaissance vocale, la reconnaissance faciale…sans oublier le médiatique alpha go de Google, nouveau maître incontesté du jeu de go. L’apprentissage profond permet à la machine d’accroître sans cesse ses performances sans intervention humaine. C’est ici qu’il est aisé de pointer un risque de perte de contrôle puisque la machine se reprogramme d’elle même à partir de données qu’un cerveau humain n’a jamais pu compulser car en masse beaucoup trop important (personne n’a lu tous les ouvrages de la BNF !).

Mais le risque est tout de même à tempérer et je cite là encore Jean Gabriel Ganascia : « Aujourd’hui les techniques d’apprentissage machine construisent des lois empiriques qui résument très bien les observations de données qu’elles ont faites …mais elles n’ont pas acquis la maturité qui leur permettrait d’inventer des concepts neufs et, encore moins, des appareils conceptuels inédits. »

  • Quatrième avancée :

Les neurosciences et les processus d’apprentissage.

Ce n’est pas un hasard si l’on parle en informatique de réseaux de neurones. Les recherches sur le cerveau humain et sur son fonctionnement nourrissent la créativité des concepteurs de nouveaux logiciels rendant les machines plus intelligentes. Il en va ainsi du découpage de l’intelligence en éléments pouvant être programmés séparément.

Ce sont incontestablement les chercheurs qui assurent le croisement des quatre domaines que nous venons d’évoquer et, en l’état actuel des choses, rien n’indique que la machine puisse se perfectionner seule jusqu’à dépasser son concepteur, ni aborder seule des champs auxquels les programmeurs ne lui ont pas donné accès, ni, en un mot, acquérir son autonomie.

Comme l’écrit Marc Rameau* dans une tribune publiée dans Le Figaro du 20 juillet 2017 : «  le danger n’est pas technologique, il est dans le fait que ces intelligences non humaines nous renvoient à notre propre déshumanisation ».

Jean Gabriel Ganascia est professeur à l’université Pierre et Marie Curie où il mène des recherches sur l l’intelligence artificielle. Il est président du comité d’éthique du CNRS. 

Marc Rameau est directeur de projet dans une grande entreprise industrielle et tient un blog «  le troisième homme ».

Jacques Puyou

 

Dernière modification le mardi, 22 août 2017
Puyou Jacques

Professeur agrégé de mathématiques - Secrétaire national de l’An@é