L’intelligence artificielle et nous
Depuis 80 ans déjà …
C’est au cours des années 1940 que sont menés les premiers travaux de recherche sur les machines pensantes et que les scientifiques commencent à débattre sur la possibilité de créer un cerveau artificiel. En 1950 Turing publie un article fondamental où il pose la question : « les machines peuvent elles penser. Face à difficulté de définir l’intelligence il propose d’apprécier la capacité intellectuelle d’une machine par le test de l’imitation (ensuite appelé Test de Turing) qui consiste à examiner si une machine peut se faire se faire passer pour un être humain par les réponses écrites qu’elle fournit aux questions ou problèmes qu’on lui pose (écrire un texte, effectuer un calcul…).
L’IA est établie comme une discipline scientifique lors de la conférence de Dartmouth en 1956 dont le thème était ainsi énoncé : « « Chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit avec une telle précision qu’une machine peut être conçue pour le simuler. »
Il faudra tout de même attendre le 7 juin 2014 pour qu’un programme informatique exécuté par un supercalculateur réussisse le test de Turing… et le 30 novembre 2022 pour que Chat-GPT soit lancé officiellement. Bien que cet agent conversationnel « grand-public » produise des textes réalistes sa capacité à réussir le test de Turing est controversée.
* Dans ce bref rappel de l’histoire de l’IA je retiens deux mots importants : imitation et simuler
IA : le soft et le hard
L’IA a d’abord été développée sous la forme de règles logiques du type « si… alors ». Cette méthode dite symbolique, fondée sur le raisonnement et des instructions, a prévalu jusque dans les années 1990 quand une approche statistique de l’IA a ensuite pris le pas avec l’apprentissage automatique, également appelé apprentissage machine. Là, l’homme demande à l’ordinateur d’apprendre à identifier des relations statistiques entre les données. Il n’y a pas d’enchaînement d’instructions explicites, la machine est entraînée à reconnaître des liens à partir d’un corpus de données dites d’entraînement. C’est grâce à cet apprentissage que la machine peut ensuite appliquer ces liens à des données nouvelles pour effectuer une tâche.
Ainsi, pour générer le texte qu’on lui demande la machine va décomposer la question posée en unités élémentaires (token) qui sont des suites de lettres ne correspondant pas forcément à un mot ; l’analyse de cette suite de tokens à la lumière des données d’entraînement produit la réponse la plus probable (statistiquement parlant)
Les avancées technologiques de l’IA ont été possibles
- grâce au cloud qui permet le stockage de gigantesque quantités de données et leur accès (distant) de plus en plus rapide via internet,
- grâce à la capacité de calcul des microprocesseurs grâce auxquelles on peut t « brasser » ces données quasi instantanément en effectuant des dizaines de milliards d’opérations par seconde. Illustration: suite à une requête contenant le seul mot « science » le moteur de recherche de Google produit une réponse composée de 7,9 milliards d’occurrences en 0,29 secondes !
Présentée ainsi l’IA semble immatérielle, En réalité elle ne peut fonctionner qu’avec infrastructures lourdes : des milliers de centres de données mutualisés auxquels s’ajoutent des myriade de centres de données privés. Tout ce « backoffice » de l’IA consomme actuellement 1 % de l’électricité mondiale.
Pour mémoire une cerveau humain pèse 1,4 kg et consomme 20 W
L’IA est (presque) partout
L’IA et les robots intelligents sont utilisés dans de très nombreux domaines
- Industrie : Automatisation des procédés, analyse prévisionnelle, gestion des approvisionnements et de la logistique, optimisation des ressources, contrôle prédictif de la qualité, planification de la maintenance…
- Commerce et Finance : Collecte et traitement des données de consommation, publicité ciblée sur internet, assistants virtuels, détection d’anomalies bancaires, conseil financier personnalisé…
- Services publics et parapublics : Automatisation des tâches administratives, accompagnement des élèves dans les apprentissages, tri du courrier, optimisation du trafic routier, assistance à la recherche d’emploi, détection des fraudes fiscales…
- Santé :Aide au diagnostic, optimisation et personnalisation des traitements, chirurgie assistée, robots compagnons, recherches de nouveaux médicaments,
- Sécurité : Prévention des activités délictueuses et criminelles, analyse des données de surveillance, détection de comportements suspects, aide à la gestion de crise, protection des réseaux informatiques, lutte contre les cyberattaques.
- Défense : Surveillance et reconnaissance, prévention des attaques, assistance au commandement.
- Vie quotidienne : Moteurs de recherche, réseaux sociaux, correction orthographique, traduction automatique, calcul d’itinéraire en temps réel, jeux vidéo, agents conversationnels (chatbots), reconnaissance biométrique, assistants personnels, domotique intelligente, aide à la conduite des véhicules, production de texte, d’images, de musique, de code informatique…
Toutes ces applications conçues conformément à un cahier des charges précis sont en permanence sous contrôle et incapable d’une quelconque initiative échappant à leur programmation : jusque là tout va bien.
IA et fiction(s)
C’est dans la mythologie grecque que l’on trouve les premières références à des mécaniques autonomes ou des êtres artificiels comme les robots dorés d’Héphaïstos, Pygmalion et Galatée .
A partir du 19ème siècle, la thématique de créatures pensantes apparaît dans la littérature et le théâtre : “Frankenstein ou le Prométhée moderne” de Mary Shelley (1818), « Darwin among the Machines » de Samuel Butler (1863) ou R. U. R. (Rossum’s Universal Robots) de Karel Čapek (1921)
Les robots et l’IA sont une source fertile d’inspiration pour le 7ème art, notamment Métropolis (1927), 2001-Odyssée de l’espace (1968), Blade Runner (1982), Terminator (1984), Matrix (1999), Her (2013).
Ces récits parfois terrifiants focalisent la narration sur des sujets comme la machines qui échappe à son créateur-les menaces non maîtrisables-la disparition de la liberté
Si L’intelligence artificielle a permis de nombreux progrès et son utilité incontestable, sa complexité anthropomorphisée et son jargon incompréhensible ouvrent la porte à des peurs terrifiantes. De plus les des dérives usages belliqueux ou malveillants ajoute de la suspicion sur le véritable bénéfice de ces nouveaux outils.
I’lA générale maître du monde attendra !
Dans l’imaginaire collectif l’IA est associé aux récits de science-fiction dans lesquels la machine échappe à son créateur, l’Homme, pour l’asservir. C’est oublier un peu vite que ces objets prétendument intelligents exécutent des tâches qui leur ont été assignées par leur créateurs, qu’elles ne font (et ne feront) rien d’autre que des calculs mathématiques complexes sans aucune référence à une quelconque sensibilité qu’elle soit physiologique (vue, ouïe, goût, odorat, toucher…) ou psychologique (humour, tristesse, colère…).
Plus prosaïquement, sans de gigantesques infrastructures et d’énormes quantité d’électricité produites par homo sapiens, l’IA n’existe pas. Faute de pouvoir penser seules ou d’éprouver des émotions ces machines ne sont que des exécutants numériques qui dépendent de leur concepteur depuis leur mise en service jusqu’à leur arrêt. Pour ceux qui en doutent on rappellera qu’un seul geste suffit pour arrêter un processus informatique déviant : couper le courant !
En fait, s’il y un risque que des machines « se rebellent » c’est parce que leur inventeur les a programmé pour le faire, là est le plus grand danger. En attendant (longtemps) que cela ne se produise pas, on voit déjà que l’IA présente d’autre risques bien réels que nous développons dans la section suivante.
Risques réels de l’IA
Les récents progrès de l’IA, et leur utilisation par l’Homme, pose des problèmes, certes
moins spectaculaires qu’une improbable IA générale dominatrice, mais bien plus concrets.
l’IA est faillible
Comme on l’a dit plus haut l’IA brasse les données qu’elle a en mémoire pour répondre à une question ou exécuter une commande. Ces données sont choisies, collectées, ordonnées et qualifiées par des êtres humains. Il en résulte que ce corpus d’information reproduit l’état des connaissances à un temps t sans être totalement exhaustif (toutes les « données » ne sont pas accessibles), d’une part, et qu’il peut être biaisé par son manque de représentativité, d’autre part. Comme le traitement des données est statistique il pourra produire des résultats erronés (voire absurdes : hallucinations des GenIA,
- qui peuvent induire l’utilisateur en erreur : c’est amusant lors d’un usage ludique, ça l’est beaucoup moins lors d’un usage professionnel technique ou intellectuel,
- qui reproduisent des préjugés : sexisme, racisme, etc…
Bref,faute de véritablement fonctionner comme le cerveau humain l’IA ne peut pas être livrée à elle-même et sa production doit être validée par l’Homme
Vie économique et culturelle
Emplois, Parce ce qu’elle peuvent faire en imitant l’homme l’IA et la robotique suscitent de nombreuses craintes quant à leur impact sur le monde du travail.
On observe déjà des changements dans de nombreuses professions techniques (inspection, maintenance, logistique…) ou intellectuelles (journalisme, diagnostic médical, comptabilité, assistance juridique…). Qu’il s’agisse d’opération simples ou complexes l’IA est capable d’’exécuter tâches répétitives ; en revanche faute de sensibilité, d’intuition ou de capacité de jugement l’IA n’est pas capable d’assurer seule la cohérence de sa production.
De nombreuses études « prospectives » ont été publiées sur les effets de la numérisation et de la robotisation. La disparité de leurs conclusions (qui vont jusqu’à se contredire) doivent nous inciter à une approche pragmatique : à l’instar de l’imprimerie, du chemin de fer, ou de l’électricité, le déploiement de l’IA va détruire certains emplois pour en créer d’autres.
S’il y a un risque ans ce domaine ce serait de négliger l’importance de la formation les travailleurs existants aux technologies nouvelles et éduquer les jeunes générations pour les préparer un environnement nouveau.
Art et Culture. L’IA génère mais ne crée pas car son processus prélève des fragments d’information et les assemble statistiquement pour répondre aussi conformément que possible à la demande qui lui est faite. Cette travail de recombinaison de texte, d’images, de sons ou de codes est très limité dans sa capacité créatrice. En effet la machine n’a pas nos 5 sens et n’éprouve aucune émotion. Elle est donc incapable d’écrire un roman comme « A la recherche du temps perdu » dont le narrateur fait appel à ce qu’il senti et ressenti. Bref l’IA a une mémoire numérique mais elle n’a pas de souvenirs
IA et vie en société
Que l’on soit à la recherche d’un nouvel emploi ou demandeur d’un prêt, il est de plus en plus fréquent de voir son dossier traité par un automate« intelligent » qui classera notre curriculum vitae dans les profils à étudier ou acceptera d’instruire une demande de crédit.
Ces pré-décisions qui conditionnent le résultat final de la démarche sont issues du fonctionnement de programmes et d’algorithmes qui ont effectué une telle flopée de calculs qu’il n’est pas possible de retracer le « pourquoi-du-comment » de leur résultat.
On comprend donc aisément que lorsque la conclusion (défavorable) d’un procédure gérée par ces automates ne peut être expliquée cela génère le sentiment frustrant de subir la décision opaque d’un système mystérieux. On ne peut pas faire pire pour susciter la méfiance…
Paradoxalement, le pistage quasi-permanent par une multitude d’IA embarquée sur le smartphone que plus de 5,6 milliards de terriens possèdent ne les émeut guère. Pourtant c’est un risque d’attaque insidieuse et bien plus massive que l’implantation d’une puce dans le cerveau de quelques individus. Au prétexte de nous rendre la vie plus facile et plus agréable l’IA submerge le cerveau d’informations qui n’a plus le temps de les consolider ce qui qui nous prive de la capacité de réfléchir, faire la part de l’essentiel et de l’accessoire et réduit notre capacité d’esprit critique.
Banalisation de publicité ciblée, propagation de fake-news, automatisation de l’influence personnalisée sont autant de risques pour l’exercice de notre libre-arbitre et pour nos organisations démocratiques comme l’a montré l’affaire Cambridge Analytica.
A cela il faut ajouter la tentation de déléguer des tâches et/ou des décisions à l’IA au lieu de s’en servir comme d’un assistant. A l’ère de la géolocalisation permanente et de l’utilisation d’applications GPS, qui sait encore s’orienter sans cette prothèse numérique ?
Armes autonomes
Les développements de l’IA et de la robotique au cours des deux dernières décennies ont permis la création de robots tueurs aussi appelés systèmes d’armes létales autonomes (SALA) qui sont déjà utilisés. Les militaires qui les ont adoptés déclarent qu’ils sont toujours contrôlés à distance.
Cela dit, à ce jour, il n’y aucune réglementation internationale qui interdit l’usage des SALA. Pourtant dès juillet 2015, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont demandé l’interdiction des armes autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ». Parmi les signataires on peut citer l’astrophysicien Stephen Hawking, le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky, le fondateur de la société DeepMind Demis Hassabis…
Surveillance
L’analyse d’image par intelligence artificielle a considérablement progressé grâce aux avancées de l’apprentissage profond depuis plus de dix ans. Elle a a d’abord permis de reconnaître des visages ou distinguer des objets ou des animaux, puis a été appliqué à la vidéo.
Si l’utilisation de la vidéosurveillance peut être justifiée pour prévenir des risques ou/et des comportements objectivement dangereux, elle est malheureusement utilisée larga manu par des dictatures numériques pour la répression de minorités et pour du contrôle social comme le fait la Chine qui promeut très activement ces usages en Iran, au Zimbabwe, en Serbie… Quant à l’utilisation de la vidéoprotection dans les pays démocratiques elle fait débat comme on a pu le voir à l’occasion des manifestations Black Lives Matter ou lors des Jeux Olympiques de Paris.
Notons aussi que la cyber-surveillance ne se fait pas que par des images fixes ou animées, elle peut être appliquée à tous les objets connectés qu’ils soient utilisés par des personnes (domotique, enceintes intelligentes…), des entreprises (capteurs intelligents) ou des organisations publiques dans le cadre du déploiement de smart-cities par exemple
Risque cyber
Les progrès récents de l’intelligence artificielle a augmenté le spectre d’action de la cyberdélinquance. Elle permet aux cyber-criminels de mieux préparer des cyberattaques toujours plus rapides, étendues et sophistiquées: production automatisée d’e-mail d’ hameçonnage (phishing), vol de fichiers, usurpation d’identité visuelle ou/et sonore (deepfake, deepvoice), propagation de malwares ciblés capables de s’adapter aux environnements de sécurité, détournement des modèles d’apprentissage profond par pollution des données qui alimentent des algorithmes du système…
Toutefois les entreprises et organisations publiques peuvent aussi tirer bénéfice de ces nouvelles technologies IA pour se protéger et l’enjeu est de le faire sans délai par rapport à leurs cyber-ennemis.
Imbroglios juridiques en perspective
L’IA n’est pas au dessus des lois ce qui suscite bien des questions de droit , par exemple :
- Qui est responsable des effets des actions ou des productions issue d’un système piloté par IA ?Une telle interrogation s’applique autant aux accidents causés par des véhicules autonomes qu’à une réponse incomplète ou inexacte d’une GenIA utilisée dans une activité professionnelle.
- A qui revient la propriété intellectuelle d’un contenu produit par une GenIA ?
- Le contenu produit par un chatbot est il véritablement original dans la mesure où il utilise les textes, des images ou des sons, des codes imaginés par d’autres auteurs (sans leur autorisation) ?
Rivalités Géopolitiques
L’IA est déjà au cœur d’un bras de fer technologique de plus en plus tendu entre les États-Unis et la Chine. D’autres pays qui ont aussi des ambitions dans ce domaine font tout pour ne pas être dominés par ce duopole : Allemagne, Arabie saoudite, Canada, Corée du Sud, Émirats arabes unis (EAU), France, Inde, Israël, Royaume-Uni.
Microprocesseurs, métaux précieux, terres rares sont au centre de cette course mondiale à la technologie.
Plafond de verre environnemental
On l’a vu plus haut, l’IA a atteint la puissance qu’on lui connaît aujourd’hui grâce au déploiement
– d’infrastructures de plus en plus nombreuses (data center) qui s’étendent sur des surfaces de plus en plus vastes : 167 millions de m² soit 25000 terrains de foot-ball ou près de deux fois la superficie de Paris intra-muros
– d’équipement sans cesse renouvelés (serveurs) qui consomment des matériaux convoités (terres rares…)
– qui consomment de l’énergie et de l’eau de refroidissement en quantités phénoménales.
Une chose est sûre , les ressources de la planète sont limités et c’est maintenant qu’il faut s’en préoccuper pour ne pas payer les progrès futurs de l’IA au prix fort !
Cet article a pas la prétention d’être exhaustif dans l’inventaire des risques que présente réellement l’IA (d’ailleurs , sont ils tous connus ?). Toutefois il tente de montrer que le danger s’insinue dans notre vie quotidienne et des activités les plus banales., ce qui doit nous inciter à plus de discernement
Ce n’est pas la première fois qu’une avancée technologique majeure inquiète (train, électricité,…). Il ne tient qu’à Homo-sapiens de maîtriser ses inventions et leurs usages.
Xavier Drouet
Pour tout commentaire, accès à l'article : https://hommesetsciences.fr/dangers-de-lintelligence-artificielle-fantasmes-et-realite/
Dernière modification le dimanche, 15 septembre 2024