En novembre 2018, le LINC interrogeait les limites de la surveillance connectée au travail, mettant en lumière l’usage de nouvelles technologies à des fins de contrôle du travail. Depuis l’apparition de la vidéosurveillance à la fin du XXe siècle à l’usage de technologies récentes, comme l’affective computing, avec des casques de mesure de l’activité cérébrale, ou de captation des émotions, ces usages de technologies s’inscrivent dans une volonté, ni anecdotique ni nouvelle, de mesure et d’optimisation de la productivité des travailleurs.
La mise en désordre des frontières entre productivité et vie privée qui en découle provoque déjà des mesures : la CNIL a par exemple prononcé en 2019 deux mises en demeure et une sanction pour vidéosurveillance excessive de salariés, sujet emblématique de la question de l’équilibre travail et protection des données.
Le traitement de certaines données de salariés par les responsables de ressources humaines, dans un cadre managérial, pose des enjeux structurels sur l’évolution des conditions de travail et sur la mise en œuvre de protection des droits des individus dans un cadre contraint. Si les effets métiers, à la fois positifs et négatifs, sont à appréhender dans le temps long, certains corps de métiers subissent déjà des conséquences.
De l’intrusion à la surveillance horizontale
En novembre 2019, Mediapart publiait un article sur les techniques de management de Centrapel, un centre d’appels basé à Paris du groupe Iliad, maison mère de Free. Visée par une enquête de l’inspection du travail, il est notamment reproché à l’entreprise de cultiver un « contexte pathogène » à base de surveillance digitale et de mise en compétition des salariés. Pour déterminer la part variable que recevra chaque téléconseiller, le centre d’appel émet un classement mensuel sur la base des performances. Les résultats individuels sont affichés en continu à la vue de tous sur le logiciel Facebook at work « que les salariés sont fortement incités à installer sur leur poste ». Ce qui crée selon l’inspection du travail (citée par Mediapart) « un climat délétère de compétition », propice à l’expression de violences entre salariés et « pour certaines d’entre elles à caractère raciste et sexiste ». Si ces enjeux semblent d’abord concerner le droit du travail, l’utilisation de mécanismes de surveillance horizontale fondés sur les données collectées dans le cadre du travail implique également le droit à la protection des données personnelles.
Alors que l’économie des plateformes semble rejouer la lutte des classes à travers son système de notation qui confère aux clients un pouvoir certain sur les travailleurs, de plus en plus, des dispositifs de management par la donnée mettent en place des mécanismes de notation inter-salariés. Fin 2019 en Allemagne, les salariés de la société d’e-commerce Zalando dénonçaient l’utilisation de Zonar, un logiciel qui encourage fortement les collègues à s’évaluer entre eux. Continuellement, ils sont classés sur cette base sur un nombre important de critères d’évaluation de performance au niveau des tâches de travail, mais aussi des critères relatifs aux relations interpersonnelles et comportements sociaux. Une enquête menée par deux chercheurs de l’université de Humboldt démontre par ailleurs que ces données nourrissent un algorithme de classement des salariés en trois catégories, par degré de performance, constituant une ressource ou au contraire un frein pour les négociations salariales.
Au-delà, cela pose la problématique du choix des données extraites et de la valeur qui leur est conférée : ces systèmes sont normatifs et contribuent à définir, plus que des manières de travailler, des manières subjectives d’être en société. Alors que ces nouveaux critères subjectifs reposent sur le traitement des données personnelles, la question juridique de leurs pertinence, exactitude voire même de leurs finalités cohabite avec celle, plus sociétale, de l’utilisation des données dans le sens d’une plus grande compétition entre travailleurs. Selon Antoinette Rouvroy, ce processus d’extraction de données s’apparentent à « une opération de purification dans laquelle les données sont expurgées de tout ce qui fait leur contexte, leur rapport avec la singularité des vies, leur signification singulière ».
Quid des qualités intangibles et inquantifiables ?
La question des normes produites sur la base des données personnelles des salariés est loin d’être négligeable, dans la mesure où elle influence directement leurs conditions du travail ainsi que la valorisation de leurs savoir-faire. L’hebdomadaire états-unien The Nation rapporte le cas de livreurs employés par Amazon dont le travail est soumis à évaluation par un logiciel. Suivant des indicateurs objectifs, tels que le nombre et la durée de pauses prises, le temps de trajet jusqu’à livraison, mais aussi d’autres mesures plus subjectives, telles que les relations interpersonnelles, la politesse avec les clients ou encore une conduite prudente. Une telle hiérarchisation des qualités de travail s’établit sur des motivations sous-jacentes économiques mais aussi techniques : les qualités intangibles pourraient ne pas être prises en compte tout simplement car elles sont plus difficilement quantifiables, traduisibles sous forme de données chiffrées.
Cela ne veut pas dire qu’il faut que les algorithmes derrière ces logiciels puissent contenir toute la complexité de l’environnement où ils opèrent, et deviennent vérité en intégrant des données sur toutes les subtilités d’un métier. Cela n’est ni techniquement faisable ni forcément souhaitable pour Antoinette Rouvroy, qui pourrait y voir une confusion entre la certitude de tenir une vérité versus « des hypothèses à propos du monde, lesquelles ne vont pas nécessairement être vérifiées, mais seront opérationnelles ».
L’Homme-machine : de l’émotionnel comme fonctionnalité
Des infirmières d’un hôpital en Floride portent des dispositifs de géolocalisation qui enregistre le temps passé auprès de chaque patient et mesure l’efficience de leur déplacement à travers l’hôpital. De ce fait, la capacité des infirmières à décider du temps qui devrait être alloué à chaque patient s’en trouve diminuée. Ces dernières sont de plus soumises à un compromis entre donner pleinement leur attention à un patient ou surveiller l’heure, et être plus attentives à leurs indicateurs de performance individuelle. En laissant de moins en moins de marge de manœuvre à la discrétion du travailleur, c’est la teneur et l’attractivité de certains emplois, souvent déjà peu valorisés socialement et/ou économiquement, qui peuvent en être troublées. A cet égard, la menace d’automatisation qui semble planer sur ces métiers (livreur, aide-soignant etc.) est moins une réalité qu’un levier pour justifier de cette confusion entre gestion du capital humain et technique.
En Europe, les travailleurs bénéficient sur ce point du régime protecteur du RGPD qui soumet la mise en place des dispositifs de contrôle de leurs activités, à de nombreuses conditions. Le législateur prend d’ailleurs en compte la relation de pouvoir propre aux liens de travail pouvant peser sur ce choix. Au sujet des casques d’analyse émotionnelle imposés à certains travailleurs en Chine, cet article du LINC rappelle que conformément à l’article L. 1121-1 du code du travail, toutes mesures restrictives des droits et libertés disproportionnées et non justifiées par rapport à l’objectif poursuivi sont prohibées.
Dans son essai Du mode d’existence des objets techniques, le philosophe Simondon développe l’idée de l’époque moderne industrielle comme passage de l’individu technique, c’est-à-dire l’Homme porteur d’outil, à la machine porteuse d’outil et l’homme « en devient soit le servant (ouvrier), soit l’ensembliste (ingénieur ou cadre) ». Dans cette relation de management des humains par les machines, ces premiers deviennent capital à optimiser, avec le facteur émotionnel/humain comme variable à contrôler. Aux Etats-Unis, l’entreprise Cogito a développé Cue, un service à base d’IA pour envoyer des conseils personnalisés aux téléconseillers du centre d’appel de MetLife, un géant assurantiel. Sur la base des conversations mais aussi d’autres données telles que le ton, la voix (une donnée éminemment personnelle comme l’expliquait cet article du LINC), Cue peut envoyer des notifications pour que la voix soit plus dynamique, le rythme plus lent ou encore la conversation plus empathique. Selon Cogito, le système d’IA analyse des différences subtiles de ton entre téléconseiller et clients pour faire en sorte que ces premiers s’adaptent mieux à l’humeur du client.
L’Homme-machine : durée de vie et obsolescence des savoir-faire humains
Cette vision technocentriste du travail ne fait pas seulement peser un risque sur l’attractivité de ces métiers mais aussi sur l’éventail de compétences et le degré de libre-arbitre à mobiliser. En 2012, le philosophe Bernard Stiegler développait dans le premier cahier IP du LINC Vie Privée à l’horizon 2020 l’idée du numérique comme « un nouveau stade de la grammatisation ». En d’autres termes, un processus de codage des savoirs humains devenus dépendants des grandes technologies de ruptures. L’essor de la machine-outil des révolutions industrielles a par exemple contribué à la prolétarisation de la production, entre autres par la fin de l’artisanat. Aujourd’hui, les effets du processus de grammatisation numérique sur certains métiers sont incertains. Quel contenu pédagogique pour les écoles d’infirmière de demain si la principale attente est la capacité d’exécution de plans opérationnels, issus des logiciels de gestion des ressources humaines par l’IA ?
Hire, application développée par Google pour optimiser le processus de recrutement grâce à l’intelligence artificielle, met en avant dans sa présentation un indicateur : ELTV pour employee lifetime value (rendement de la durée de vie d’un employé). L’entreprise américaine IBM a développé une plateforme IA pour prédire les performances de ces employés, attestant selon l’entreprise d’un taux de précision de 96%. Enfin, Amazon utilise également des technologies d’IA pour suivre la productivité de ces travailleurs dans les centres de gestion des commandes, à cet égard le webmagazine The Verge rapportait des cas où des travailleurs étaient licenciés de manière automatique lorsque le logiciel estimait que leur productivité était insuffisante. Le rapport 2017 de la CNIL sur les enjeux éthiques des algorithmes et de l’IA pose une question toujours aussi pertinente : « comment distinguer en RH les décisions simples facilement automatisables des décisions complexes pour lesquelles la dimension « humaine » de la profession devra être préservée ? ».
https://linc.cnil.fr/fr/les-people-analytics-ou-la-fuite-en-avant-du-management-par-les-donnees
Les textes, images, vidéos et iconographies disponibles sur le site et élaborés par la CNIL sont mis à disposition selon les termes de licence CC-BY 3.0 FR
Dernière modification le mardi, 25 février 2020