Si mon médecin me demandait d’accepter que mon dossier médical soit transmis à Deepmind Health (département santé de google), j’aurais fortement tendance à répondre que non : je n’ai aucune envie que mes petits problèmes et mes antécédents soient portés à la connaissance de tous y compris à celle de ma compagnie d’assurance…sauf si j’imagine que les médecins qui me suivent peuvent mal évaluer le risque que je contracte sous peu une maladie grave.
Il serait peut-être bon que mon dossier soit comparé à des millions d’autres pour être plus finement analysé et m’assurer une meilleure prise en charge préventive.
Si le proviseur du lycée me demandait d’accepter que les situations d’apprentissage et évaluations auxquelles je soumets mes élèves soient transmises à des éditeurs de numérique éducatif, j’aurais fortement tendance à répondre que non : je me dois de respecter la confidentialité de la relation pédagogique établie en confiance entre mes élèves et moi… sauf si j’imagine que je ne tire peut-être pas le meilleur de chacun d’entre eux.
Il serait peut-être bon que les profils de mes élèves soient comparés à des millions d’autres et que j’aie, en retour, des éléments pour mieux les faire progresser.
Ces situations qui illustrent la question de la protection des données personnelles interrogent en fait la notion de vie privée qui est sous-jacente.
On sent bien que cette notion est en évolution avec l’utilisation par tout un chacun des téléphones portables, des réseaux sociaux, des assistants personnels, de l’intelligence artificielle, de l’internet des objets sans parler des capacités humaines numériquement augmentées qui sont à portée de recherche. Si l’on s’en tient à une notion minimaliste et première de la vie privée, il semble d’ores et déjà que la seule protection possible soit de « débrancher » et, qu’on le veuille ou non c’est à une notion moins stricte de sphère privée et de vie privée que nous allons devoir nous référer pour concevoir une protection compatible avec nos nouveaux modes de vie.
Les conceptions de protection de la vie privée sont loin d’être identiques en Europe, outre atlantique ou dans l’empire du soleil levant.
Cela est simplement du au fait que les approches sont différentes, influencées qu’elles sont par le passé, les modèles économiques et les postulats philosophiques en vigueur dans chacune de ces parties du monde.
Avec une même adhésion au système démocratique et au libéralisme économique conception européenne et conception américaine divergent. Cette dernière est moins stricte quant au respect de l’individu ou plus mercantile comme on voudra avec l’espoir que le libéralisme justement fera le reste et que l’économie du net s’autorégulera. Cela se traduit par moins de contraintes pour les entreprises qui collectent et traitent des données à caractère personnel et une approche sectorielle (médecine, commerce, éducation, défense…) et non une approche générale.
Cette différence a été récemment mesurée par la Commission Nationale Informatique et Liberté (CNIL) qui a infligé à Google une amende record de 50 millions d’euros pour non respect des closes du Règlement Général de Protection des Données (RGPD) qui impose le droit des consommateurs à être explicitement informés et à donner ou non leur accord à la collecte des données.
Le glissement d’une conception à l’autre est contenu dans l’injonction de Joël de Rosnay* : « Il faut opposer aux Gafa une force qui les oblige à payer ce qu’ils nous piquent ». Ainsi « empêcher qu’ils nous piquent » version européenne se transforme peu à peu en « payer un droit à piquer » version américaine.
Quant à la Chine qui avance à pas de géant dans le monde numérique, elle a longtemps ignoré le droit à la vie privée et à la protection des données personnelles (passé communiste oblige). Ainsi, à l’aide d’un dispositif général de reconnaissance faciale (fichier et algorithmes) mis à disposition de la police, vous pouvez être verbalisé pour avoir traversé la rue au rouge des piétons…on peut imaginer le pire. On assiste pourtant à une émergence du souci de la protection des données et les législateurs chinois regardent de plus en plus vers le modèle européen : le RGPD semble exportable…mais le chemin est encore long.
Le danger vient de ce que ces différences conceptuelles peuvent avoir à l’avenir des conséquences économiques et sociales importantes.
En effet les développements de l’intelligence artificielle et de ses applications dans notre vie de tous les jours se nourrissent de deux composantes essentielles : les algorithmes et les données, les secondes étant le carburant des premiers.
Les sociétés et les états qui feront main basse sur la plus grande quantité de données auront à l’avenir un avantage décisif qu’ils ne manqueront pas de traduire économiquement et politiquement. La promesse que nous font sociétés privées et services publics de nous « offrir »des distractions, des traitements médicaux, des enseignements…sur mesure est assortie de notre découpage en une multitude de données les plus nombreuses et les plus variées possibles allant de notre ADN à notre goût éventuel pour la pêche à la truite. Quelle est la place de l’individu et de son libre arbitre dans ce processus ?
Cette interrogation place le problème dans sa dimension éthique. Si la collecte peu ou prou consentie et le traitement des données personnelles semble inévitable, du moins peut-on envisager une éthique commune de leur utilisation.
Le premier principe d’une telle éthique est la transparence : c’est-à-dire que détention, nature, modalités de stockage, durée de conservation de données doivent, a minima, être rendus publics. La transparence devrait aussi être une exigence pour ce qui est des algorithmes mais elle devient un peu illusoire pour le grand public dès que l’on touche aux algorithmes d’apprentissage profond qui fondent l’intelligence artificielle.
Le deuxième principe est la dépersonnalisation des données tant que faire se peut. Celle-ci est assortie du découplage des données car la connexion de fichiers distincts peut conduire à l’individu par recoupement.
Le troisième principe est la recherche de l’intérêt général. Il rejoint la vision du numérique comme un ensemble de ressources qui n’appartient à personne et qui est, de ce fait utilisable par tous à condition de respecter des règles comparables à celles que la communauté scientifique applique à l’utilisation du savoir scientifique. Il y a une part d’utopie dans tout cela mais c’est la condition pour établir un rapport de confiance durable entre l’individu qui fournit consciemment ou non ses données personnelles et les utilisateurs potentiels. C’est aussi la condition pour une valorisation optimale des données. Le mot d’ordre affiché par le ministère de l’Education Nationale « mieux protéger pour mieux valoriser » se comprend aisément en référence à ce principe.
L’internet des objets connectés n’en est qu’à ses balbutiements mais son essor ne va pas manquer de faire bouger les lignes mondialement en termes de protection des données. Peut-on imaginer que les données produites par l’utilisation d’un véhicule autonome soient la propriété exclusive du concepteur et ne soient pas immédiatement mises à disposition des gestionnaires du réseau routier, des sociétés d’autoroute, des responsables de la sécurité routière, des assureurs… ? L’intérêt général en pâtirait considérablement.
Ce développement doit être anticipé pour que la nouvelle révolution qui se profile soit davantage porteuse de confiance que de peurs.
*Joël de Rosnay https://www.educavox.fr/alaune/le-scientifique-joel-de-rosnay-livre-ses-cles-pour-faire-face-aux-mutations-du-monde
Dernière modification le mardi, 09 novembre 2021