De partout, les esprits s’agitent pour tenter de trouver des réponses. Eli Pariser, celui qui a imaginé le concept de « bulles de filtres » tant mis en question ces dernières semaines, a ouvert un Google Doc pour recueillir des solutions. Le document fait désormais plus de 100 pages et Nicky Woolf, pour le Guardian, a tenté d’en faire la synthèse.
Des solutions… concrètes ?
Les solutions relèvent de trois grandes catégories synthétise-t-il : faire vérifier l’information par des éditeurs humains, avoir recours au crowdsourcing (c’est-à-dire à la foule des internautes pour classer le bon grain de l’ivraie en permettant à des gens d’avoir un statut de vérificateur par exemple), ou trouver des solutions techniques ou algorithmiques.
L’article du Guardian liste une petite quinzaine de solutions, avec les arguments en leur faveur et en leur défaveur. Elles vont de la labellisation des médias ou des publications, à la séparation des informations de leur partage ou commentaire, en passant par l’ajout de marqueurs sur les fausses informations ou les articles qui posent problème, ou consiste encore à ajouter un temps d’attente avant tout partage pour diminuer la viralité de la propagation des informations.
D’autres solutions proposent des partenariats avec des sites de vérifications d’information comme Snopes ou de lier des informations à leurs contre-informations. D’autres proposent d’ajouter un classement de réputation des gens selon ce qu’ils partagent. D’autres encore de labéliser les informations par des couleurs ou de bannir ceux qui publient de la désinformation. Autant de solutions qui ont toutes des avantages et des défauts, notamment et avant tout parce que la désinformation n’est pas toujours clairement établie. D’autres solutions proposent encore des solutions distribuées de fact-checking, comme de prendre en compte le classement de fiabilité des sites selon un système proche du Page Rank, l’algorithme de Google qui calcule la popularité d’une page web.
Mieux comprendre la diffusion de la désinformation
Si, comme nous le disions, Google et Facebook ont annoncé des premières mesures pour lutter contre la désinformation, reste encore à s’assurer de la réalité du problème. Quartz relayait il y a peu que les sites de désinformation étaient bien plus dépendants de Facebook que les sites d’information. Dans une tribune pour The Conversation, Filippo Menczer, directeur du Centre de recherche sur les réseaux et les systèmes complexes de l’université de l’Indiana, explique que limiter le financement des sites de désinformation comme l’ont annoncé Google et FB est un pas dans la bonne direction. Mais cela ne suffira pas.
Nous sommes effectivement confrontés à une industrie du piège à clic qui industrialise la rumeur et la désinformation pour gagner de l’argent par la publicité rappelle le chercheur qui parle « d’astroturfing politique », en montrant par exemple comment les bots sur Twitter sont devenus les noeuds des conversations politiques (voir notamment son projet BotorNot qui permet d’évaluer la probabilité qu’un compte Twitter soit un robot).
Image : Visualisation de la propagation du hashtag #SB277, une loi californienne qui supprime un certain nombre d’exemptions aux exigences de vaccinations à l’école. Les points montrent les comptes qui utilisent ce hastag et les lignes montrent les retweets qui y sont liés. Les plus gros points sont les comptes qui retweetent le plus. Les points rouges sont probablement des bots, les bleus des humains. On voit que les bots sont des noeuds de communication essentiels. Via une étude du Twitter Bot Challenge.
Nous sommes vulnérables à la manipulation, rappelle le chercheur, notamment parce que nous avons tendance à faire confiance aux signaux de notre cercle relationnel, et parce que nous avons tendance à rejeter l’information qui contredit nos croyances.
Les recherches montrent plutôt que la polarisation se renforce estime le chercheur en pointant plusieurs études tant et si bien qu’il est désormais possible de déterminer votre orientation politique juste en regardant celle de vos relations (en fait les études, pour l’instant, semblent plutôt contradictoires sur ces sujets).
En fait, l’information qui s’ajuste à nos croyances renforce l’engagement, et l’engagement, c’est ce que cherchent à développer les médias sociaux. Ce sont les réseaux sociaux eux-mêmes qui ne sont pas conçus pour trier l’information, mais pour développer une attention très sélective. Les conservateurs ont lu que le pape soutenait Trump. Les démocrates qu’il avait soutenus Clinton. Alors qu’il n’avait soutenu ni l’un ni l’autre. Les algorithmes qui pilotent les médias sociaux sont conçus pour prioriser les articles engageants : ceux qu’on aime cliquer, ceux qu’on aime partager ou auxquels on aime réagir. Et les fausses informations attirent plus l’attention que les vraies, comme le soulignait Buzzfeed. Dans nos bulles de confiance, nous avons tendance à être plus crédules.
Dans son laboratoire, explique encore Filippo Menczer, les chercheurs simulent un réseau social pour mieux comprendre ce qui pousse les gens à partager ou à vérifier l’information. Et les premiers résultats préliminaires tendent à montrer que la fermeture de la communauté joue un rôle majeur dans la viralité des canulars.
Pour l’instant, rappelle le chercheur, « il est encore difficile d’apprendre à un système d’intelligence artificielle à distinguer la vérité du mensonge. Par contre, on peut dire à des algorithmes de classements de donner une plus grande priorité aux sources les plus sûres ». On pourra rendre ce combat plus efficace si l’on comprend mieux comment la désinformation se répand. Si elle est plutôt le fait de robots, on peut améliorer leur détection.
Si le problème provient plutôt des chambres d’échos, peut-être peut-on concevoir des systèmes de recommandation qui favorise la diversité des points de vue… explique celui qui développe, via son Observatoire des médias sociaux une plateforme, Hoaxy, pour comprendre la diffusion des rumeurs. Et le chercheur de conclure en relayant l’appel de Jeff Jarvis à développer une coopération large des médias et des chercheurs pour combattre la désinformation.
Reste que toutes ces solutions n’adressent pas le problème à long terme, estime Nicky Woolf : à savoir éduquer le public. Et notamment les plus jeunes qui ne semblent pas très en capacité d’évaluer une information, comme le rappelait une récente étude de Stanford. Mais, ils ne sont pas les seuls, tant s’en faut. Et si l’éducation aux médias est une piste, elle n’est peut-être pas suffisante. Pourquoi ? Parce que nous sommes humains avant tout !
Plus qu’un problème d’éducation, nos biais cognitifs en question
Notre manière de penser est définitivement binaire et polarisée, s’énerve le psychologue et chercheur Albert Moukheiber, fondateur de Chiasma, un groupe de réflexion et d’animation dédié à la pensée critique, sur son compte Facebook. Mais ce n’est pas le seul de ses biais, comme le relève une de ses collègues. « Le cerveau est également très sensible aux habitudes et aux façons dont on produit, partage et consomme l’information ».
Les formes courtes, simplifiées, « digestes »… ces formes qu’on utilise pour condenser et rendre accessible l’information ne nous exposent pas beaucoup à des contenus qui se rapportent à la complexité. Les histoires les plus partagées sont courtes, rapides, pour maximiser l’engagement sur les médias sociaux. Et ces formes d’échanges nous éloignent de la contradiction, des nuances… Le problème, estime encore le chercheur, c’est que si on s’habitue à comprendre le Brexit en 500 mots ou la mécanique quantique via des vidéos YouTube de 3 minutes, on pense malgré tout comprendre les deux. Et il devient difficile de passer à d’autres versions ou à déconstruire ce qu’on a pensé.
« Si nous ne sommes pas exposés à des informations nuancées et si nous ne prenons pas l’habitude d’informations contradictoires, d’une réalité en couches, d’accepter la non-linéarité des événements, alors notre manière de raconter des histoires (et de les entendre) reflètera cela ».
Si vous avez été exposés à 50 mots de vocabulaire, votre pensée renverra cette limitation. Rendre l’information disponible et compréhensible, facile et accessible, nous conditionne à croire que tout est facilement compréhensible, quel que soit le sujet.
Dan Jones (@multipledraftz), pour le New Scientist, rappelle que les psychologues et politologues ont depuis un moment dressé le constat de la polarisation et de l’aveuglement, notamment en étudiant le climatoscepticisme ou le rejet de la vaccination. Quand et pourquoi avons-nous une vue partielle de l’information ? questionne-t-il. Et le journaliste scientifique de rappeler que nous ne sommes pas des scientifiques objectifs, loin de là. Nos biais nous conduisent plutôt à rejeter les faits qui contredisent nos préjugés.
C’est ce qu’on appelle le raisonnement motivé en psychologie. Ainsi, en dépit du fait que la science soit sans aucune ambiguïté sur le changement climatique, cela n’empêche pas un nombre considérable de gens de ne pas croire à l’évidence. Un sondage du Pew Internet Center a montré que les républicains étaient plus climatosceptiques que les démocrates, et que chez les conservateurs, se sont même les personnes les plus diplômées qui sont le moins susceptibles d’accepter le changement climatique.
Pour Dan Kahan, psychologue à l’université de Yale, ce n’est pas lié, comme on l’entend souvent, à un problème d’éducation, à un manque de capacité à en comprendre les enjeux. Au contraire ! c’est la motivation raisonnée même de ces gens qui les empêchent d’accepter la vérité. Dans le cas des climatosceptiques, des études suggèrent que la motivation profonde des plus sceptiques repose sur leurs convictions profondes, notamment, leur croyance dans l’idéologie du libre marché, qui alimente leurs objections à toute réglementation pour lutter contre le changement climatique. En fait, en posant 4 questions sur la perception économique du monde, on peut prédire assez fortement les convictions des gens en matière de réchauffement climatique, estime le psychologue britannique Stephan Lewandowsky.
On constate les mêmes distorsions de la réalité entre ceux qui sont pour et contre les armes à feu, explique encore Kahan (voir l’étude). Et plus vous êtes éduqué, plus votre perception est déformée. Des chercheurs de la Online Privacy Foundation ont montré que si opposants et partisans du Breixit étaient capables d’évaluer avec autant de pertinence l’information statistique permettant de savoir si une nouvelle crème pour la peau causait une éruption cutanée, ils étaient bien plus divisés quand on leur proposait des statistiques permettant de savoir si l’immigration était liée à une augmentation ou une diminution de la criminalité. Même en présentant les faits, l’émotion nous trompe quand ceux qu’on nous présente résonnent avec nos convictions.
Mais l’idéologie politique n’explique pas tout. L’opposition à la vaccination par exemple ne s’explique pas d’une manière aussi politique. Pour Dan Jones, le raisonnement motivé montre que même des messages objectifs peuvent ne pas marcher : ils ont même parfois le résultat contraire, à l’image des messages du ministère de la Santé britannique pour la vaccination, qui ont plutôt diminué l’intention à vacciner ses enfants chez des parents ayant un présupposé favorable envers les vaccins. Cela ne veut pas dire qu’il faut abandonner toute remise en perspective des faits, mais plus les questions sont controversées : plus les préjugés sont saillants, moins la démythification fonctionne. Comme le souligne le politologue Brendan Nyhan : même la publication du certificat de naissance du président Obama n’a eu qu’un effet limité sur les gens qui ne croyaient pas qu’il était né aux Etats-Unis. Et même lorsqu’elle fonctionne, bien des gens gardent un « écho de croyance » qui les poussent à continuer à croire en ce qu’il pensait, même s’ils se sont rendus compte de leurs erreurs.
La solution ? Éduquer… à la curiosité !
Les travaux (.pdf) de Brendan Nyhan et Jason Reifler ont néanmoins montré que l’information présentée graphiquement avait plus d’impact sur les gens (mais c’est autant le cas pour une fausse information que pour une vraie).
Ils montrent aussi que si les gens rejettent certaines idées, c’est parce qu’elles remettent en cause « l’identité » qu’ils ont construite autour de leur vision du monde.
Si c’est le cas, réduire leur estime de soi pourrait réduire cette menace. Quand Nyhan et Reifler font réfléchir et écrire les gens sur les valeurs qui sont importantes pour eux (une méthode qui permet de stimuler l’estime de soi appelée l’autoaffirmation), ils ont découvert que cela pouvait être une ruse qui fonctionne. Mais son effet n’est pas uniforme.
Par exemple, pour les républicains dont l’identité n’est pas fortement reliée au parti, l’affirmation de soi les rend plus susceptibles de rejeter leur climatosceptisisme que ceux qui s’identifient fortement avec la ligne du parti ou une mise en doute n’a pas d’effet voire renforce leur croyance (comme le constataient également les travaux de Kevin Munger).
Kahan a tout de même trouvé quelque chose d’intrigant pour réduire le raisonnement motivé : ceux qui font preuve d’une curiosité scientifique, quelque soit leur orientation politique, montrent une plus grande acceptation du changement climatique.
Sur une foule de questions, allant des réactions face au porno à la légalisation de la marijuana, de l’immigration à la fracturation hydraulique, la curiosité scientifique fait converger libéraux et conservateurs. Les gens scientifiquement curieux ont plus tendance à lire des points de vue contraires à leurs opinions.
« Trouver des moyens d’accroître la curiosité scientifique, peut-être en augmentant l’influence des gens qui montrent ce caractère, pourrait permettre de sortir des disputes partisanes d’une manière plus efficace que de promouvoir simplement l’éducation scientifique. »
Dépolitiser… pour mieux politiser !
Autre lueur d’espoir, selon Kahan : le dualisme cognitif, c’est-à-dire la capacité à avoir des croyances apparemment contradictoires en même temps.
Si les fondements psychologiques de ce dualisme sont encore mal connus, ils sont finalement assez courants, notamment parce que les gens réfléchissent à ces questions à des niveaux différents et que toutes leurs croyances ne sont pas cohérentes. En fait, explique Kahan, quand on demande aux gens leur avis sur le changement climatique, cela s’apparente pour eux à leur demander qui ils sont, à quels partis ils se rattachent.
C’est pourquoi l’identité politique impacte tant leurs réponses. Mais quand on fait du changement climatique une question locale, personnelle, le problème devient rapidement une préoccupation bien plus pragmatique. Cela signifie que dépolitiser les choses en les faisant résonner à un autre niveau, plus personnel, est peut-être un meilleur moyen d’action.
Pour Lewandowsky, dépolluer le côté partisan de ces questions nécessite aussi d’interroger les influences en matière de lobbying… C’est ce que soulève l’éditorialiste écologiste George Monbiot (a href= »https://twitter.com/GeorgeMonbiot »>@georgemonbiot) dans le Guardian. Les adolescents Macédoniens ne sont peut-être pas les principaux responsables de la désinformation, rappelle George Monbiot : les fausses informations sont d’abord le fait de lobbyistes et de groupes de pression puissants, comme le sont ceux qui financent les climatosceptiques.
Des milliards de dollars dépensés dans des systèmes de persuasions permettent d’acheter toutes les politiques que l’on souhaite. Les think tanks et les faux mouvements de pression financés par des entreprises puissantes sont partout et les fausses informations sont alimentées par des groupes qui ne révèlent pas leurs intérêts ni ne sont transparents sur ce qu’ils financent. Dépolitiser nécessite donc d’être plus clair sur ce qui est politique, sur ce qui relève encore et toujours de l’idéologie et de ses formes instituées.
Nous n’avons pas connu d’âge d’or démocratique conclut Nyhan. Les faits n’ont jamais dominé l’opinion publique, les médias ou le discours politique… Cela signifie donc que nous devons encore avoir des marges de progrès.
Hubert Guillaud
Article publié sur le site : http://www.internetactu.net/2016/12/06/peut-on-repondre-a-la-desinformation/