Les enjeux sont clairement identifiés depuis une cinquantaine d’années et Alan Turing :
Comment s’assurer que cette technologie serve le progrès humain, sans engendrer discriminations, manipulations et chômage de masse ? Est-on sûr qu’une super IA ne prendra pas un jour le pouvoir ? Et plus explicite encore : l’intelligence artificielle menace-t-elle la démocratie ? C’est le titre d’un article de l’Obs publié en amont du festival international du journalisme.
Ce n’est pas un hasard si les craintes pour la démocratie sont en première ligne au Festival International du journalisme.
Ce que les nouvelles formes de l’intelligence artificielle viennent perturber est ni plus ni moins ce qui fait le propre de l’homme : le langage. C’est cette capacité nouvelle de générer et manipuler le langage, écrit, images ou son, qui leur permet de s’insinuer dans chaque compartiment nos vies individuelles, sociales, démocratiques au point d’en perturber le cours jusqu’à une possible perte de contrôle. C’est ce qui fait dire à l’historien israélien auteur de « Sapiens », Yuval Noah Harari dans un entretien au « Times » : « l’IA a piraté le système d’exploitation de notre civilisation »avant de conclure « Si j’ai une conversation avec quelqu’un, et que je ne peux pas dire s’il s’agit d’un humain ou d’une IA, ce sera la fin de la démocratie. »
Cela vient s’ajouter à l’entre soi favorisé par les réseaux sociaux et le jeu des algorithmes qui enferme dans une même communauté d’opinion la frange de la population dont ces réseaux sont la seule source d’information.
Il est possible, à l’inverse, de déclarer comme Jean François Cauche « Chat GPT, même pas peur ! »* en ne distinguant pas peur individuelle et peur collective, peur pour sa survie ou peur pour la survie de la démocratie. Il est possible, comme le fait Asma Mhalla, enseignante à Columbia, Sciences po et Polytechnique, et présente à Couthures d’éluder la question en appelant de ses vœux une réponse : « la question fondamentale n’est pas doit-on avoir peur de l’intelligence artificielle ou pas, la question est la mort ou le revival du politique ».
En tous cas ce ne sont pas moins de neuf tables rondes qui y sont consacrées au cours de ces trois journées qui rassemblent en Lot et Garonne, dans un lieu improbable, en plein cœur de l’été, ce que le journalisme fait de mieux, pour un temps public de réflexion, déconnecté de l’actualité immédiate, avec l’apport précieux d’universitaires et de chercheurs.
Elles ont pour titres :
A quoi sert l’intelligence artificielle ? (avec Laurence Devillers)
ChatGPT radiographie d’une panique morale. (avec Anne Alombert et)
l’intelligence artificielle est-elle une menace pour l’information ? (avec, et)
L’intelligence artificielle menace-t-elle la démocratie ?
L’intelligence artificielle peut-elle être utile aux médias ? (avec Aurore Malval et David Dieudonné)
Comment remettre l’intelligence artificielle au service de tous ?avec et)
Rêvons l’intelligence artificielle du futur. (avec et Emma Bertoin)
Dans l’énoncé même des titres des divers forums on sent déjà toute l’ambigüité des réponses à la question de fond entre l’inventaire des dangers et celui des espoirs mais il est à noter qu’il sera toujours permis de rêver car, en fin de parcours, les participants peuvent imaginer l’intelligence artificielle de leur rêve.
Je n’ai pas la prétention de rendre compte fidèlement des débats auxquels j‘ai participé pour plusieurs raisons autres que mes capacités et dont la principale est le format même des interventions à Couthures : une riche interaction entre festivaliers et invités dans un climat estival d’échanges bienveillants. Je vais donc en retirer quelques lignes de force.
Tout d’abord l’intelligence artificielle générale, celle que l’on pourrait comparer à l’intelligence humaine et qui viendrait la concurrencer est au mieux une illusion, au pire une idéologie et personne ne peut rien prédire sur son avènement. Même si les mots qui décrivent l’IA sont soumis à cette idéologie, ils ne correspondent à aucune réalité scientifique: les « réseaux de neurones » ne sont que des empilements de fonctions mathématiques qui travaillent sur des paquets de données pour en sortir un résultat après des processus d’optimisation et donc d’approximation. L’approximation est d’autant meilleure que les données sont nombreuses ce qui fait dire que les données sont le pétrole de l’IA et a pour conséquence qu’elles ont une grosse valeur marchande.
Il convient donc de considérer l’IA comme une nouvelle et importante étape dans la modélisation du réel permise conjointement par l’état actuel de la puissance de calcul des machines, l’abondance des données et les avancées mathématiques de ces dernières années.
Ainsi, l’IA ne raisonne pas, elle ne crée pas, elle n’innove pas, elle ne ressent pas d’émotion : comme tout modèle mathématique avant elle et après elle, elle simule…les vecteurs et les matrices n’ont pas d’état d’âme. La nouveauté, la créativité supposent l’intervention du vivant qui va introduire une rupture avec l’existant. Une machine ne peut pas le faire ; elle ne peut utiliser que l’existant et encore, pas le plus récent, celui sur lequel elle a suffisamment de données.
J’ai aimé la remarque d’une invitée, Anne Alombert, je crois, qui en réponse à un intervenant lui demandant de prouver que l’IA ne parviendrait jamais à une analogie avec l’intelligence humaine a retourné la nécessité de preuve : qui peut prouver actuellement qu’un tel résultat peut être atteint…personne.
Pour autant l’intelligence artificielle générative est loin d’être inoffensive de par sa nature et de par les usages qui en sont proposés et elle suscite des craintes légitimes.
Les biais tout d’abord : genrés, sociaux, ethniques, politiques, économiques…ils sont dus aux concepteurs, hommes blancs généralement mais surtout aux données qui nourrissent l’IA. Des données partielles ou connotées, en tout cas biaisées conduisent à un biais des résultats même après un bon traitement statistique.
La non transparence des sources ou plutôt l’absence de sources : un texte à apparence scientifique ou journalistique produit par ChatGPT ne citera aucune source puisqu’il est élaboré à partir d’une masse considérable de données elles-mêmes non sourcées. ChatGPT ne produira donc jamais du savoir, il n’a aucun processus de validation.
L’instabilité du modèle : il ne fournit pas la même réponse à la même question posée deux fois consécutivement. Il contient une part d’aléatoire.
L’uniformisation et le renforcement des phénomènes majoritaires : la machine par le traitement statistique écarte les savoirs peu connus, les opinions minoritaires etc…De plus, l’algorithme chargé de prévoir le comportement (pour proposer un service ou un produit) se base sur les comportements majoritaires en fonction de quelques paramètres et la prédiction elle-même va augmenter l’occurrence de ce comportement. Même constat pour les points de vue bien sûr avec les incidences possibles sur le vote des citoyens.
Le leurre : l’IA générative pousse l’individu à lui poser toutes les questions qu’il veut et lui donne l’illusion qu’elle fournit la réponse. L’image et le son produits avec les mêmes procédés conduisent à des illusions encore plus fortes car elles rajoutent de l’émotion non dans le contenu mais chez celui auquel celui-ci est adressé. Un exemple, en fournissant des photos et enregistrements audio d’un être cher et disparu à un logiciel, celui-ci simulera la parole du disparu s’adressant à vous…
La question de pouvoir distinguer le dessin original ou la photo ou l’article d’un journaliste avec un document produit par une IA devient primordiale. Elle doit être étudiée et outillée.
La disparition de nombreux emplois à faible valeur ajoutée…cela a été maintes fois évoqué.
L’hégémonie : un tout petit nombre de sociétés américaines et chinoises ont seules les capacités financières et humaines de développer ces outils technologiques avec tous les risques que font courir les situations de monopoles surtout quand on touche tous les domaines de la vie de l’information au divertissement en passant par l’éducation et la santé.
La capture des données individuelles : l’IA en consomme pour vivre, c’est l’or noir du moment et il attise toutes les convoitises.
Faut-il alors interdire (comme cela a été envisagé ici ou là pour ChatGPT) ? Faire une pause et proposer un moratoire (comme certains l’ont suggéré) ?
Ces pseudos solutions sont tout aussi illusoires que vaines. Rien n’avance à coup d’interdits ni dans ce domaine ni dans d’autres et la solution la plus sage car c’est la seule est de faire avec.
On ne doit pas se priver d’outils aussi puissants donc faire avec mais pas n’importe comment. Trois pistes pour cela.
Comprendre les outils. Il est indispensable de « remettre la science au centre de la société » tout à la fois pour des raisons géostratégiques et individuelles. Sans formation de mathématiciens en nombre suffisant, nous allons vers une dépendance forte y compris dans la maintenance de ces systèmes complexes. On peut comparer ce risque à celui qui s’est fait jour, en Europe, à propos des médicaments.
Cela n’est pas suffisant : il faut également éduquer aux nouvelles technologies, non pour apprendre à les utiliser car elles sont simples à utiliser mais pour les comprendre et comprendre les effets de leur utilisation sur les individus. Il faut enseigner la philosophie et l’histoire des techniques numériques.
Développer l’hybridation des processus en réservant l’IA aux taches automatisées, répétitives et de faible valeur ajoutée et en valorisant ce qui caractérise l’humain par ailleurs. L’évolution conjointe de l’activité humaine et des technologies à disposition doit faire l’objet de recherches et il faut savoir jusqu’où on veut aller.
Réglementer : le RGPD est une réussite française reprise à l’échelle de l’Europe et qu’il faut continuer à développer. Pourquoi ne pas imposer un marqueur sur les productions utilisant de l’IA générative pour les rendre repérables ? Pourquoi ne pas prévoir des réglementations et des normes sur les produits de la tech comme cela l’est sur les produits agricoles ou industriels ?
Un peu d’optimisme alors… oui mais « un optimisme de combat » selon la formule de Bluenove.
L’IA doit être considérée pour ce qu’elle est, c’est-à-dire un outil et celui-ci peut être mis au service de futurs désirables. Il n’est pas nécessaire de revenir sur les espoirs suscités en matière de santé ou d’environnement mais on peut aussi poser la question de comment l’IA peut améliorer le fonctionnement démocratique. Un exemple : les cahiers de doléance écrits à la suite de la crise des gilets jaunes représentent 380 000 pages. Une fois numérisées, un traitement par IA permet de dégager huit thèmes. L’analyse fait émerger des valeurs clés qui font consensus : proximité, solidarité, citoyenneté. Tri et analyse, l’IA sait faire mieux que l’humain.
Pour concevoir les enjeux et déterminer la manière de se servir de la technologie, une course poursuite est engagée entre intelligence artificielle et intelligence collective. Cette dernière laisse de la place pour l’utopie: l’IA un outil au service du progrès social, écologique et humain ?
Jacques Puyou
Jean François Cauche *ChatGPT, même pas peur... - Educavox, Ecole, pédagogie, enseignement, formation
A quoi sert l’intelligence artificielle ? (avec Laurence Devillers)
ChatGPT radiographie d’une panique morale. (avec Anne Alombert et Laurence Devillers )
L'’intelligence artificielle est-elle une menace pour l’information ? (avec Olivier Le Deuff, Laurent Richard et Pierre Ganz )
L’intelligence artificielle menace-t-elle la démocratie ?
L’intelligence artificielle peut-elle être utile aux médias ? (avec Aurore Malval et David Dieudonné)
Comment remettre l’intelligence artificielle au service de tous ?(avec Nicolas Moës et Benoit Piédallu )
Rêvons l’intelligence artificielle du futur. (avec Antoine Brachet et Emma Bertoin)
Dernière modification le vendredi, 11 août 2023