François-Bernard Huyghe est auteur, entre autres, de Quatrième guerre mondiale, L’ennemi à l’ère numérique, La soft-idéologie. Docteur d’État, il enseigne et dirige depuis de nombreuse années des recherches en médiologie, en intelligence économique et en stratégie de l’information, notamment sur le campus virtuel de l’Université de Limoges, avec l’Institut de Recherche en Intelligence Informationnelle et l’IRIS (Institut des Relations InternationalesStratégiques). C’est aussi un praticien du décryptage des médias au quotidien, très présent sur Internet.
"Le Web, média « tous vers tous », au lieu des vieux mass media « un vers tous », une nouvelle agora citoyenne, un pluralisme favorisé par une technique à portée des individus, la fin des monopoles du savoir, une expression ouverte aux sensibilités les plus diverses, l’inefficacité de toute censure qui voudrait imposer une vérité officielle : voilà une vulgate ou un « imaginaire d’Internet » qui date maintenant de quelques décennies. Le réseau fut ainsi voulu ou rêvé comme formidable levier démocratique voire libertaire, avant de devenir effectivement un instrument d’influence,. Mais pas toujours dans le sens attendu par les premiers utopistes.
Si l’on tente de décomposer la notion très englobante d’influence en une série d’actions susceptibles d’être pensées stratégiquement, organisées voire de susciter des techniques, la liste comprendra sans doute :
- Prestige : toute stratégie de présentation de soi ou de réputation qui peut provoquer l’admiration, ou l’imitation d’un modèle.
- Persuasion : l’utilisation de discours (ou d’images) pour amener un public à adhérer à une thèse, qu’elle soit relative à une affirmation de fait (il s’est produit tel événement) ou une croyance plus générale (une idéologie en « isme », par exemple).
- Inspiration : émission d’un discours ou d’une idée reprise par ses récepteurs, réinterprétée, parfois même mise en œuvre et, dans tous les cas, promue à son tour.
- Formatage : créer des catégories mentales, des codes, éventuellement imposer un vocabulaire. Comme le précédent, c’est un stade complémentaire de la persuasion au sens binaire (je crois / je ne crois pas).
- Agenda : décider de ce qui fera débat, de ce qui est important, mettre sous le projecteur tel évènement ou telle thèse et non telle autre.
- Maillage : fonctionner en réseaux, établir des liens, trouver des alliés, créer des synergies pour faire circuler l’information voire des programmes d’action, non pas de haut en bas, mais par alliance d’acteurs ou émetteurs mobilisés pour un même objectif.
Un simple coup d’œil sur cette liste montre qu’il n’y a aucune de ces fonctions, toujours mêlées à un degré ou à un autre, qui ne puisse être mieux remplie grâce à Internet. Ainsi, les sites peuvent servir de vitrine, ce sont des instruments de rhétorique ou de propagande, ils servent à lancer des thèmes qui seront repris par lien ou par copier-coller, etc.
Dans un premier temps, il fut tentant de penser la capacité d’influence, positive ou négative, d’Internet en termes d’amplification : le Net permettrait de faire plus facilement (parfois même anonymement), à moindre frais, de n’importe quel point de la planète et instantanément ce qui se faisait autrefois par journaux, tracts, courrier, bouche-à-oreille... Dans la décennie 90, nombre de spécialistes de l’intelligence économique voient le pouvoir d’influence du Net ou par le Net se développer suivant deux directions :
- L’effet « David contre Goliath » : le petit, le rapide, le malin peut publier et répandre rapidement son message, généralement critique, parfois ou ironique, notamment pour « révéler » un scandale ou un dysfonctionnement. Le lent, le pataud, l’institutionnel, le visible est dépassé ; il est facilement surpris dans un contexte de crise, maladroit face à l’équivalent numérique d’une presse alternative. Il n’y a plus aucune proportion entre les moyens, la représentativité ou l’autorité de l’émetteur et l’impact de son message. Un site parodiant les slogans de Shell ou imitant le logo de Danone, dénonçant une faille de fiabilité dans les automobiles Ford ou répercutant un rapport qui présente la le saumon d’une certaine origine comme moins bon pour la santé qu’un autre : voilà un type d’offensives informationnelles récurrentes et dont le succès est parfois spectaculaire.
Parfois, on peut soupçonner une action délibérée (la main de concurrents ?) derrière telle publication électronique qui se dit simplement militante, citoyenne ou purement informative, mais cela reste difficile à prouver. Le système sur Internet fonctionne dans un rapport de coopération/compétition avec les grands médias « classiques » : ceux-ci ne peuvent plus ignorer ce qui se passe sur la Toile, ce qui se dit plus vite et avec moins de précaution que dans leurs pages ou sur leurs plateaux. Les « mainstream media » courent derrière les « self media » à la fois agacés par cette concurrence sauvage et obligés d’amplifier un phénomène incontournable.
- L’effet de répétition de souris à souris ou résonance. Ce qui s’est dit sur la Toile une fois sera conservé et est facilement répété. Par la création de liens, par simple copie de textes et d’images ou encore par citation et discussion dans les forums, chats ou autres, les documents prolifèrent à tel point qu’il devient parfois difficile de retrouver la source primaire. Ce phénomène de contamination a deux conséquences. D’une part, du fait de la structure réticulaire d’Internet, tout ce qui est entré une fois de n’importe où sur la Toile ne peut quasiment plus en être éliminé et laissera toujours une trace (ne serait-ce que sur des sites miroirs qui enregistrent une moment de la vie du Net). Ceci vaut pour une calomnie, une rumeur, une désinformation. Difficile de jouer en défense dans ces conditions-là.
D’autre part, même si l’influence ne peut se réduire à des critères quantitatifs, elle se chiffre : nombre de visites, nombre de citations, nombre de liens, nombre de discussions sur le sujet. L’organisation ou l’individu influent est celui dont le message est souvent consulté et que d’autre se réapproprient ; c’est souvent l’initiateur d’une chaîne de copistes, glosateurs, propagateurs… ; est influent qui détermine la « structure d’attention » (nous nous empruntons ce concept à la…. primatologie) de la communauté virtuelle et lance ce processus de contamination
L’influent, c’est par exemple, celui qui lance le buzz (le bourdonnement en anglais). Cette technique de marketing vise à faire la promotion d’une marque ou d’un tissu en mettant en ligne une historiette ou une vidéo, généralement amusantes, que les internautes se repassent mutuellement. C’est aussi le « e-influent », dont l’avis est écouté et les messages discutés, avatar électronique du leader d’opinion repéré par la sociologie américaine dans les années 50.
Ces formes de l’influence sur Internet restent efficientes. Pour des raisons sociologiques ou idéologiques plus de pure techniques, leur effet s’accroît : les nouvelles formes de la démocratie d’opinion, le recours aux principes de gouvernance et de consensus comme légitimation, le rôle d’organisations pensées par et pour l’influence (lobbies, ONG, think tanks, groupes affinitaires, identitaires ou militants dits « de la société civile »), la médiatisation générale, la surveillance constante des gouvernants et des entreprises au nom des principes sécuritaires, écologiques, moraux,…
Tous ces facteurs jouent en faveur des stratégies d’influence (par contraste, par exemple, avec les stratégies d’autorité) ce qui nous a amenés à parler ailleurs de « démocraties d’influence ».
Mais la technique, obéit-elle toujours aux mêmes règles ou assistons nous à une mutation fondamentale ? Une notion se répand qui plaide la seconde hypothèse : Web 2.0.
Premier problème : personne, pas mêmes les inventeurs de la terminologie, n’est capable de définir le Web 2.0. Une approximation généralement acceptée, range dans cette catégorie des innovations techniques et services en ligne récemment apparus (plus les pratiques sociales qui s’en sont ensuivies par logique d’usage), et qui offrent de nouvelles fonctionnalités en accroissant la liberté d’action de l’utilisateur.
Mettons à part des aspects vraiment techniques tels que certains protocoles web ou les applications.
Mettons également à part les déclarations fracassantes sur l’intelligence collective, les utilisateurs prenant le pouvoir sur les marchands, et le « pouvoir rendu à chacun d’exprimer sa créativité ».
Reste une liste que nous tenterons de résumer en exemples simples comme :
- les blogs
- les RSS, ces fils d’information qui permettent de savoir à chaque minute ce qui change sur un site
- les sites de vidéo, photo ou musique partagés comme Dayli Motion, You Tube ou Itunes
- les moteurs de nouvelle génération comme Exalead
- les sites dits collaboratifs, ceux de journalisme citoyen, les sites d’évaluation et de recommandation
- les sites communautaires qui sont voués aux « réseaux sociaux » comme Del.icio.us pour le partage des signets ou les sites narcissiques de type Facebook ou Myface (qui peuvent donner lieu à des dérives commerciales avec la "vente de profils"
- des systèmes de logiciels libres et open source
- les encyclopédies collaboratives de type Wiki
- les folksonomies (étiquetage social) et les tag clouds (nuages de mots clefs) qui permettent aux utilisateurs de faire savoir quels mots et quels liens leur semblent les plus appropriés pour indexer une page Internet.
- les plates-formes fournissant aux utilisateurs des services à la place de logiciels dans leurs ordinateurs (stockage en ligne, fonctions bureautiques, etc.)
- la régie publicitaire de Google Adsense qui envoie des messages centrés sur les intérêts des internautes..
Web 2.0 serait-il un synonyme de « branché et agréable pour l’utilisateur » ? Sans céder à la mode qui consisterait à s’extasier de la « révolution » apportée par le Web 2.0, nous pouvons soupçonner quelques tendances lourdes dans cet amoncellement hétéroclite.
Tous les principes fonctionnent en synergie.
Soit l’exemple des « nuages de mots ». Ces nuages formés de mots-clés, balises ou étiquettes sont en réalité des cartes de méta-données (celles qui servent à en décrire d’autres, en l’occurrence à classer ou indiquer le contenu de pages). Ils apparaissent pour indiquer tous les termes que soit les auteurs, soit les visiteurs d’une page pensent être en relation avec son sens. Ces mots peuvent parfaitement ne pas figurer dans le contenu du texte lui-même, mais entretenir un lien logique avec lui. Ainsi, si une page est consacrée au baba au rhum, il y a de fortes chances que le « nuage de mots » comporte les mots recette, pâtisserie ou cuisinier, même s’ils ne sont pas dans le texte central. Cette organisation n’est pas seulement sémantique : les mots ne s’organisent pas selon leur degré de pertinence, mais aussi de façon « démocratique ». En effet, suivant le nombre de fois où ils sont choisis, ils apparaissent plus ou moins visiblement.
Essayons de résumer quelques principes :
- L’externalisation et hybridation des fonctions. Auparavant les utilisateurs possédaient des machines avec des logiciels, voué chacun à une tâche spécifique. Ils allaient grâce à des moteurs de recherche guidant des navigateurs sur des sites plus ou moins stables contenant les données susceptibles de les intéresser. Désormais, « le Web devient une plate-forme ». Ainsi, un moteur de recherche comme Google fournit toutes sortes de services (un agenda en ligne, une messagerie, des tableurs ou traitements de texte,). L’utilisateur bénéficie des services et ne se soucie plus de savoir s’il est à proprement parler en train de chercher, de naviguer, de consulter des données ou de faire des opérations avec un algorithme contenu dans son logiciel. Il saute sans cesse de l’un à l’autre. Par exemple, il fait une revue de presse en ligne, allant de source en source, se fait traduire des extraits, prend des notes éventuellement avec un système bureautique en ligne ou crée des liens qu’il peut signaler à sa « communauté », nourrit son blog… Selon une formule souvent utilisée, le Web 2.0 tend à remplacer les applications par les services en ligne. Avantage collatéral : plus besoin d’utiliser constamment un ordinateur puissant : certaines applications en ligne peuvent fonctionner avec un téléphone mobile ou un autre appareil.
- Corollaire du corollaire : la simplification générale : plus personne n’a le temps de se spécialiser ou d’effectuer un apprentissage compliqué pour des utilisations si diverses et si changeantes. On s’abonne et on fait…
- L’œuvre collective. D’un côté les possibilités d’expression sur les blogs, le forums de discussion, les divers système de commentaire, s’élargit. De l’autre le Web intègre et exploite l’opinion émise directement ou indirectement. Exemple : si, ayant acheté un livre sur les roses, vous commandez ensuite un livre sur les tulipes, vous augmentez les chances que le visiteur suivant reçoive le message : « les lecteurs qui ont acheté le livre que vous regardez en ce moment sur les roses ont également tendance à acheter cet ouvrage sur les tulipes ». Liens hypertextes, page rank (ce système qui présente les réponses à une demande de mot-clés selon une hiérarchie qui dépend du nombre des liens pointant vers un site), nuages de mots, indication du nombre de visiteurs par sites, du nombre de recherches sur un thème, marketing viral : nous sommes sans cesse en train de voter pour « le plus populaire », et, accessoirement, de nourrir à nos frais (au moins en termes de temps passé) une activité commerciale. Nous sommes nos propres publicitaires.
- La « production par les pairs » s’étend aux instruments et vecteurs eux-mêmes : ce sont les utilisateurs qui, profitant des sources ouvertes, améliorent les logiciels en perfectionnant les codes publiés par les autres, proposent leurs propres logiciels, widgets, ad-ons… les contenus sont ouverts comme le sont de plus en plus les codes des applications. Cela renforce – voir plus haut – la tendance à l’hybridation .
- La logique du renouvellement perpétuel s’impose tendanciellement pour le contenu (on ne visite plus des sites, on suit leur évolution sur le fil ; on ne se documente plus une bonne fois sur un thème, on reçoit des flux d’informations au fur et à mesure de leur apparition, on s’abonne, etc.). Elle vaut aussi pour les vecteurs : les logiciels et les services sont en perpétuelle réorganisation, toujours en train de changer de version. C’est le règne de la « version béta perpétuelle » et de l’actualisation permanente.
Ces tendances techniques et organisationnelles représentent des « facilités » (en raison de l’adage qui dit que la technique autorise mais qu’elle ne détermine pas).
Le Web 2.0 (si tant est qu’un tel animal existe) encourage :
- Le « tous médias ». Un slogan célèbre du chanteur punk Jello Biafra dit : « Ne haïssez plus les médias, devenez les médias ». Cela n’implique pas seulement que chacun puisse s’exprimer sur la Toile : les « sites personnels », les forums, les chats et les groupes de discussion ne datent pas d’hier. Mais désormais, en ces temps de journalisme citoyen, chacun peut faire bien mieux que de poser quelque part des textes ou des images que tout internaute pourra consulter.
Tout d’abord, l’amateur le moins douté dispose de facilités de documentation que n’aurait pas eu le directeur du plus grands quotidien il y a quinze ans. Qu’il s’agisse de lire des dépêches d’agence ou des quotidiens étrangers, d’aller consulter la position d’une institution, d’un parti, d’un simple individu, d’être alerté très vite s’il se publie quoi que ce soit de nouveau sur son sujet d’intérêt, d’illustrer son propos de photos ou de vidéos, de contacter des interlocuteurs à l’autre bout de la planète…., vous pouvez vous doter en quelques minutes de moyens dont ne disposait pas un vrai professionnel, il y a quelques années : par exemple pour lire la presse étrangère, il lui fallait attendre qu’il en arrive physiquement un exemplaire ou s’en faire lire des extraits par téléphone.
Et comme rien ne se perd sur Internet, tout est archivé quelque part, attendant d’être réactivé par la mémoire. La technique s’étant simplifiée à l’extrême, il est enfantin de créer un blog, instantanément modifiable, de l’illustrer, de créer des liens de références mutuelles avec d’autres blogs et sites. La « citation » y compris la citation en image qui met en ligne de brèves vidéos, tournées par l’auteur ou recopiée ailleurs, devient très simple. Enfin les lieux d’expression se sont multipliés : quel est le journal qui n’offre pas une possibilité de créer son blog ? N’est pas demandeur des photos numériques d’actualité des lecteurs ? N’ouvre pas des forums de discussion ?
Allons plus loin : notre opinion est perpétuellement sollicitée. Exprimez vous. Votez. Donnez votre évaluation. Recommandez à des correspondants. Indiquez quel est votre site favori. Signalez des liens intéressants. Participez à la définition des mots clefs qui serviront à référencer cette page. Déposez votre photo, votre vidéo, vos liens favoris et soumettez les au jugement de tous les internautes. Activez vos « réseaux sociaux ».
- Bien entendu les pouvoirs économiques ou politiques ne font qu’accentuer la tendance dans leur obsession de « sentir les courants », ou « d’être au contact des gens ». Tandis que les entreprises cherchent désespérément les moyens de ne pas perdre le lien avec la blogosphère et s’évertuent à établir le lien avec le public et les parties prenantes, la classe politique ne cesse de scruter ce qui se passe sur le Net, d’appeler les cyber citoyens à proposer, juger, co-rédiger… Tout en courant le risque de retrouver demain en ligne une vidéo gênante, une proclamation ou un document les mettant en cause.
- Du reste toute opinion ou le « profil » de tout internaute ont une valeur commerciale. Le fait que vous ayez acheté tel livre, qu’en tant que cadre de moins de quarante ans vivant en région parisienne vous consommiez tel type de produit, que vous ayez montré tel type de personnalité sur Facebook, ou simplement que vous ayez cliqué sur tel lien qui vous attirait a une valeur d’indice. Cela permettra de faire des offres plus ciblées à un public payant.
Tous médias implique donc « tous experts ». Chacun peut présenter sa version de la réalité ou exprimer son jugement de façon d’autant plus égale qu’elle est anonyme. L’exemple le plus célèbre est celui de Wikipedia, l’encyclopédie collaborative basée sur le volontariat et l’intelligence collective. Le principe est que les altruistes compétents et de bonne foi coopéreront et que la majorité recherchera l’amélioration objective de ce « work in progress » perpétuel. Mais l’amateur peut corriger en ligne le texte qu’un spécialiste émérite vient de déposer, le malin placer sa petite publicité, le pervers diffamer, le partisan répandre ses thèses et supprimer celles des adversaires, les groupes organisés infiltrer le très modeste système de vérification et sécurisation mis en place. Il y a donc lutte entre la stratégie de l’altruiste (contribuer pour augmenter la quantité globale d’information vraie et pertinente, la richesse immatérielle commune) et la stratégie du parasite (en profiter pour implanter des données favorable à ses intérêts ou lubies). Or, comme sur Internet toutes les interprétations sont également disponibles (la mauvaise monnaie pouvant chasser la bonne en se reproduisant de façon virale), il n’y a rien d’équivalent à la « critique par les pairs » censée régner dans les milieux universitaires. D’où le succès soudain de rumeurs ou de thèses délirantes du type « aucun avion ne s’est jamais écrasé sur le Pentagone, la preuve : regardez cette photo qui prouve le trucage. ». D’où un énorme problème de preuve.
« Tous médias » peut aussi impliquer :
- Tous stars un quart d’heure : des flux d’attention, mesurables en milliers de visites d’internautes peuvent se déverser sur une page inconnue ou presque, selon des règles très difficiles à identifier. C’est ainsi qu’un partisan du non au référendum sur la constitution européenne de 2006 peut devenir trouver des milliers de lecteurs en quelques jours et peser davantage sur l’opinion qu’un quotidien réputé.
- Tous doubles : chacun peut créer autant de pseudonymes et prendre autant d’identités qu’il veut, voire vivre une seconde existence dans Second Life où il pourra acheter des biens virtuels avec de l’argent réel, créer, par exemple, un bureau de son parti politique et y recevoir des visiteurs, etc.. L’autonomie des avatars prend ainsi une ampleur inégalée.
- Tous en tribu : le Web 2.0 c’est le royaume de l’échange, du miroir, de l’alliance temporaire, du rassemblement… Tout renvoie à tout par référence, lien, citation, discussion,… et des communautés s’agrègent instantanément pour se dissoudre parfois aussi vite. Ces tribus ou plutôt ces réseaux ont deux caractéristiques. Ils sont d’abord affinitaires : il faut avoir été attiré par un intérêt personnel quelconque, partager certaines croyances,valeurs ou au moins des thématiques pour y entrer. Ils sont ensuite informationnels, en ce sens qu’on n’y échange que des discours, des images et des signes, sans aucun contact « dans la vie réelle ». Cette double caractéristique leur confère à la fois une puissance de mobilisation et la faculté plus inquiétante de créer des « bulles » informationnelles, fermées à la critique extérieure, ressassant des affirmations répétées voire redondantes mais qui ne risquent guère d’être contredites.
On le voit, sur le Web 2.0, l’influence (mesurable à la capacité de faire réagir autrui dans un certain sens) a de moins en moins une source unique facile à identifier et obéit moins encore à un schéma linéaire. Il semblerait plutôt qu’Internet devienne un magma où soudain se dessinent des formes : il naît une structure d’attention sur certains points, structure qui, elle même, reflète une bizarre cartographie de la confiance. Des essaims d’internautes se portent sur un point, créant un effet d’agrégation tandis qu’en sens inverse des unités de sens (des énonciations, des thèmes…) se répandent, se transforment, chaque repreneur les réinterprétant à son tour pour les relancer. Pareil système paraît échapper à tout contrôle.
Or il semblerait que « tout » soit sur Internet comme tous les livres que l’on pourrait écrire avec les 25 lettres de l’alphabet figurent quelque part dans la bibliothèque de Babel. À certains égards, le vrai pouvoir devient celui de « faire le catalogue » et de créer des pôles d’attraction. Cela résulte notamment des systèmes d’indexation de l’information disponible (et notamment le fameux Google ranking qui ouvre la voie à des stratégies de manipulation des robots sémantiques, pour ne pas dire des stratégies du tricheur) mais aussi quelque chose de mystérieux qu’il faut bien appeler « l’art de diriger l’attention ».
Si l’on tente de décomposer la notion très englobante d’influence en une série d’actions susceptibles d’être pensées stratégiquement, organisées voire de susciter des techniques, la liste comprendra sans doute :
- Prestige : toute stratégie de présentation de soi ou de réputation qui peut provoquer l’admiration, ou l’imitation d’un modèle.
- Persuasion : l’utilisation de discours (ou d’images) pour amener un public à adhérer à une thèse, qu’elle soit relative à une affirmation de fait (il s’est produit tel événement) ou une croyance plus générale (une idéologie en « isme », par exemple).
- Inspiration : émission d’un discours ou d’une idée reprise par ses récepteurs, réinterprétée, parfois même mise en œuvre et, dans tous les cas, promue à son tour.
- Formatage : créer des catégories mentales, des codes, éventuellement imposer un vocabulaire. Comme le précédent, c’est un stade complémentaire de la persuasion au sens binaire (je crois / je ne crois pas).
- Agenda : décider de ce qui fera débat, de ce qui est important, mettre sous le projecteur tel évènement ou telle thèse et non telle autre.
- Maillage : fonctionner en réseaux, établir des liens, trouver des alliés, créer des synergies pour faire circuler l’information voire des programmes d’action, non pas de haut en bas, mais par alliance d’acteurs ou émetteurs mobilisés pour un même objectif.
Un simple coup d’œil sur cette liste montre qu’il n’y a aucune de ces fonctions, toujours mêlées à un degré ou à un autre, qui ne puisse être mieux remplie grâce à Internet. Ainsi, les sites peuvent servir de vitrine, ce sont des instruments de rhétorique ou de propagande, ils servent à lancer des thèmes qui seront repris par lien ou par copier-coller, etc.
Dans un premier temps, il fut tentant de penser la capacité d’influence, positive ou négative, d’Internet en termes d’amplification : le Net permettrait de faire plus facilement (parfois même anonymement), à moindre frais, de n’importe quel point de la planète et instantanément ce qui se faisait autrefois par journaux, tracts, courrier, bouche-à-oreille... Dans la décennie 90, nombre de spécialistes de l’intelligence économique voient le pouvoir d’influence du Net ou par le Net se développer suivant deux directions :
- L’effet « David contre Goliath » : le petit, le rapide, le malin peut publier et répandre rapidement son message, généralement critique, parfois ou ironique, notamment pour « révéler » un scandale ou un dysfonctionnement. Le lent, le pataud, l’institutionnel, le visible est dépassé ; il est facilement surpris dans un contexte de crise, maladroit face à l’équivalent numérique d’une presse alternative. Il n’y a plus aucune proportion entre les moyens, la représentativité ou l’autorité de l’émetteur et l’impact de son message. Un site parodiant les slogans de Shell ou imitant le logo de Danone, dénonçant une faille de fiabilité dans les automobiles Ford ou répercutant un rapport qui présente la le saumon d’une certaine origine comme moins bon pour la santé qu’un autre : voilà un type d’offensives informationnelles récurrentes et dont le succès est parfois spectaculaire.
Parfois, on peut soupçonner une action délibérée (la main de concurrents ?) derrière telle publication électronique qui se dit simplement militante, citoyenne ou purement informative, mais cela reste difficile à prouver. Le système sur Internet fonctionne dans un rapport de coopération/compétition avec les grands médias « classiques » : ceux-ci ne peuvent plus ignorer ce qui se passe sur la Toile, ce qui se dit plus vite et avec moins de précaution que dans leurs pages ou sur leurs plateaux. Les « mainstream media » courent derrière les « self media » à la fois agacés par cette concurrence sauvage et obligés d’amplifier un phénomène incontournable.
- L’effet de répétition de souris à souris ou résonance. Ce qui s’est dit sur la Toile une fois sera conservé et est facilement répété. Par la création de liens, par simple copie de textes et d’images ou encore par citation et discussion dans les forums, chats ou autres, les documents prolifèrent à tel point qu’il devient parfois difficile de retrouver la source primaire. Ce phénomène de contamination a deux conséquences. D’une part, du fait de la structure réticulaire d’Internet, tout ce qui est entré une fois de n’importe où sur la Toile ne peut quasiment plus en être éliminé et laissera toujours une trace (ne serait-ce que sur des sites miroirs qui enregistrent une moment de la vie du Net). Ceci vaut pour une calomnie, une rumeur, une désinformation. Difficile de jouer en défense dans ces conditions-là.
D’autre part, même si l’influence ne peut se réduire à des critères quantitatifs, elle se chiffre : nombre de visites, nombre de citations, nombre de liens, nombre de discussions sur le sujet. L’organisation ou l’individu influent est celui dont le message est souvent consulté et que d’autre se réapproprient ; c’est souvent l’initiateur d’une chaîne de copistes, glosateurs, propagateurs… ; est influent qui détermine la « structure d’attention » (nous nous empruntons ce concept à la…. primatologie) de la communauté virtuelle et lance ce processus de contamination
L’influent, c’est par exemple, celui qui lance le buzz (le bourdonnement en anglais). Cette technique de marketing vise à faire la promotion d’une marque ou d’un tissu en mettant en ligne une historiette ou une vidéo, généralement amusantes, que les internautes se repassent mutuellement. C’est aussi le « e-influent », dont l’avis est écouté et les messages discutés, avatar électronique du leader d’opinion repéré par la sociologie américaine dans les années 50.
Ces formes de l’influence sur Internet restent efficientes. Pour des raisons sociologiques ou idéologiques plus de pure techniques, leur effet s’accroît : les nouvelles formes de la démocratie d’opinion, le recours aux principes de gouvernance et de consensus comme légitimation, le rôle d’organisations pensées par et pour l’influence (lobbies, ONG, think tanks, groupes affinitaires, identitaires ou militants dits « de la société civile »), la médiatisation générale, la surveillance constante des gouvernants et des entreprises au nom des principes sécuritaires, écologiques, moraux,…
Tous ces facteurs jouent en faveur des stratégies d’influence (par contraste, par exemple, avec les stratégies d’autorité) ce qui nous a amenés à parler ailleurs de « démocraties d’influence ».
Mais la technique, obéit-elle toujours aux mêmes règles ou assistons nous à une mutation fondamentale ? Une notion se répand qui plaide la seconde hypothèse : Web 2.0.
Premier problème : personne, pas mêmes les inventeurs de la terminologie, n’est capable de définir le Web 2.0. Une approximation généralement acceptée, range dans cette catégorie des innovations techniques et services en ligne récemment apparus (plus les pratiques sociales qui s’en sont ensuivies par logique d’usage), et qui offrent de nouvelles fonctionnalités en accroissant la liberté d’action de l’utilisateur.
Mettons à part des aspects vraiment techniques tels que certains protocoles web ou les applications.
Mettons également à part les déclarations fracassantes sur l’intelligence collective, les utilisateurs prenant le pouvoir sur les marchands, et le « pouvoir rendu à chacun d’exprimer sa créativité ».
Reste une liste que nous tenterons de résumer en exemples simples comme :
- les blogs
- les RSS, ces fils d’information qui permettent de savoir à chaque minute ce qui change sur un site
- les sites de vidéo, photo ou musique partagés comme Dayli Motion, You Tube ou Itunes
- les moteurs de nouvelle génération comme Exalead
- les sites dits collaboratifs, ceux de journalisme citoyen, les sites d’évaluation et de recommandation
- les sites communautaires qui sont voués aux « réseaux sociaux » comme Del.icio.us pour le partage des signets ou les sites narcissiques de type Facebook ou Myface (qui peuvent donner lieu à des dérives commerciales avec la "vente de profils"
- des systèmes de logiciels libres et open source
- les encyclopédies collaboratives de type Wiki
- les folksonomies (étiquetage social) et les tag clouds (nuages de mots clefs) qui permettent aux utilisateurs de faire savoir quels mots et quels liens leur semblent les plus appropriés pour indexer une page Internet.
- les plates-formes fournissant aux utilisateurs des services à la place de logiciels dans leurs ordinateurs (stockage en ligne, fonctions bureautiques, etc.)
- la régie publicitaire de Google Adsense qui envoie des messages centrés sur les intérêts des internautes..
Web 2.0 serait-il un synonyme de « branché et agréable pour l’utilisateur » ? Sans céder à la mode qui consisterait à s’extasier de la « révolution » apportée par le Web 2.0, nous pouvons soupçonner quelques tendances lourdes dans cet amoncellement hétéroclite.
Tous les principes fonctionnent en synergie.
Soit l’exemple des « nuages de mots ». Ces nuages formés de mots-clés, balises ou étiquettes sont en réalité des cartes de méta-données (celles qui servent à en décrire d’autres, en l’occurrence à classer ou indiquer le contenu de pages). Ils apparaissent pour indiquer tous les termes que soit les auteurs, soit les visiteurs d’une page pensent être en relation avec son sens. Ces mots peuvent parfaitement ne pas figurer dans le contenu du texte lui-même, mais entretenir un lien logique avec lui. Ainsi, si une page est consacrée au baba au rhum, il y a de fortes chances que le « nuage de mots » comporte les mots recette, pâtisserie ou cuisinier, même s’ils ne sont pas dans le texte central. Cette organisation n’est pas seulement sémantique : les mots ne s’organisent pas selon leur degré de pertinence, mais aussi de façon « démocratique ». En effet, suivant le nombre de fois où ils sont choisis, ils apparaissent plus ou moins visiblement.
Essayons de résumer quelques principes :
- L’externalisation et hybridation des fonctions. Auparavant les utilisateurs possédaient des machines avec des logiciels, voué chacun à une tâche spécifique. Ils allaient grâce à des moteurs de recherche guidant des navigateurs sur des sites plus ou moins stables contenant les données susceptibles de les intéresser. Désormais, « le Web devient une plate-forme ». Ainsi, un moteur de recherche comme Google fournit toutes sortes de services (un agenda en ligne, une messagerie, des tableurs ou traitements de texte,). L’utilisateur bénéficie des services et ne se soucie plus de savoir s’il est à proprement parler en train de chercher, de naviguer, de consulter des données ou de faire des opérations avec un algorithme contenu dans son logiciel. Il saute sans cesse de l’un à l’autre. Par exemple, il fait une revue de presse en ligne, allant de source en source, se fait traduire des extraits, prend des notes éventuellement avec un système bureautique en ligne ou crée des liens qu’il peut signaler à sa « communauté », nourrit son blog… Selon une formule souvent utilisée, le Web 2.0 tend à remplacer les applications par les services en ligne. Avantage collatéral : plus besoin d’utiliser constamment un ordinateur puissant : certaines applications en ligne peuvent fonctionner avec un téléphone mobile ou un autre appareil.
- Corollaire du corollaire : la simplification générale : plus personne n’a le temps de se spécialiser ou d’effectuer un apprentissage compliqué pour des utilisations si diverses et si changeantes. On s’abonne et on fait…
- L’œuvre collective. D’un côté les possibilités d’expression sur les blogs, le forums de discussion, les divers système de commentaire, s’élargit. De l’autre le Web intègre et exploite l’opinion émise directement ou indirectement. Exemple : si, ayant acheté un livre sur les roses, vous commandez ensuite un livre sur les tulipes, vous augmentez les chances que le visiteur suivant reçoive le message : « les lecteurs qui ont acheté le livre que vous regardez en ce moment sur les roses ont également tendance à acheter cet ouvrage sur les tulipes ». Liens hypertextes, page rank (ce système qui présente les réponses à une demande de mot-clés selon une hiérarchie qui dépend du nombre des liens pointant vers un site), nuages de mots, indication du nombre de visiteurs par sites, du nombre de recherches sur un thème, marketing viral : nous sommes sans cesse en train de voter pour « le plus populaire », et, accessoirement, de nourrir à nos frais (au moins en termes de temps passé) une activité commerciale. Nous sommes nos propres publicitaires.
- La « production par les pairs » s’étend aux instruments et vecteurs eux-mêmes : ce sont les utilisateurs qui, profitant des sources ouvertes, améliorent les logiciels en perfectionnant les codes publiés par les autres, proposent leurs propres logiciels, widgets, ad-ons… les contenus sont ouverts comme le sont de plus en plus les codes des applications. Cela renforce – voir plus haut – la tendance à l’hybridation .
- La logique du renouvellement perpétuel s’impose tendanciellement pour le contenu (on ne visite plus des sites, on suit leur évolution sur le fil ; on ne se documente plus une bonne fois sur un thème, on reçoit des flux d’informations au fur et à mesure de leur apparition, on s’abonne, etc.). Elle vaut aussi pour les vecteurs : les logiciels et les services sont en perpétuelle réorganisation, toujours en train de changer de version. C’est le règne de la « version béta perpétuelle » et de l’actualisation permanente.
Ces tendances techniques et organisationnelles représentent des « facilités » (en raison de l’adage qui dit que la technique autorise mais qu’elle ne détermine pas).
Le Web 2.0 (si tant est qu’un tel animal existe) encourage :
- Le « tous médias ». Un slogan célèbre du chanteur punk Jello Biafra dit : « Ne haïssez plus les médias, devenez les médias ». Cela n’implique pas seulement que chacun puisse s’exprimer sur la Toile : les « sites personnels », les forums, les chats et les groupes de discussion ne datent pas d’hier. Mais désormais, en ces temps de journalisme citoyen, chacun peut faire bien mieux que de poser quelque part des textes ou des images que tout internaute pourra consulter.
Tout d’abord, l’amateur le moins douté dispose de facilités de documentation que n’aurait pas eu le directeur du plus grands quotidien il y a quinze ans. Qu’il s’agisse de lire des dépêches d’agence ou des quotidiens étrangers, d’aller consulter la position d’une institution, d’un parti, d’un simple individu, d’être alerté très vite s’il se publie quoi que ce soit de nouveau sur son sujet d’intérêt, d’illustrer son propos de photos ou de vidéos, de contacter des interlocuteurs à l’autre bout de la planète…., vous pouvez vous doter en quelques minutes de moyens dont ne disposait pas un vrai professionnel, il y a quelques années : par exemple pour lire la presse étrangère, il lui fallait attendre qu’il en arrive physiquement un exemplaire ou s’en faire lire des extraits par téléphone.
Et comme rien ne se perd sur Internet, tout est archivé quelque part, attendant d’être réactivé par la mémoire. La technique s’étant simplifiée à l’extrême, il est enfantin de créer un blog, instantanément modifiable, de l’illustrer, de créer des liens de références mutuelles avec d’autres blogs et sites. La « citation » y compris la citation en image qui met en ligne de brèves vidéos, tournées par l’auteur ou recopiée ailleurs, devient très simple. Enfin les lieux d’expression se sont multipliés : quel est le journal qui n’offre pas une possibilité de créer son blog ? N’est pas demandeur des photos numériques d’actualité des lecteurs ? N’ouvre pas des forums de discussion ?
Allons plus loin : notre opinion est perpétuellement sollicitée. Exprimez vous. Votez. Donnez votre évaluation. Recommandez à des correspondants. Indiquez quel est votre site favori. Signalez des liens intéressants. Participez à la définition des mots clefs qui serviront à référencer cette page. Déposez votre photo, votre vidéo, vos liens favoris et soumettez les au jugement de tous les internautes. Activez vos « réseaux sociaux ».
- Bien entendu les pouvoirs économiques ou politiques ne font qu’accentuer la tendance dans leur obsession de « sentir les courants », ou « d’être au contact des gens ». Tandis que les entreprises cherchent désespérément les moyens de ne pas perdre le lien avec la blogosphère et s’évertuent à établir le lien avec le public et les parties prenantes, la classe politique ne cesse de scruter ce qui se passe sur le Net, d’appeler les cyber citoyens à proposer, juger, co-rédiger… Tout en courant le risque de retrouver demain en ligne une vidéo gênante, une proclamation ou un document les mettant en cause.
- Du reste toute opinion ou le « profil » de tout internaute ont une valeur commerciale. Le fait que vous ayez acheté tel livre, qu’en tant que cadre de moins de quarante ans vivant en région parisienne vous consommiez tel type de produit, que vous ayez montré tel type de personnalité sur Facebook, ou simplement que vous ayez cliqué sur tel lien qui vous attirait a une valeur d’indice. Cela permettra de faire des offres plus ciblées à un public payant.
Tous médias implique donc « tous experts ». Chacun peut présenter sa version de la réalité ou exprimer son jugement de façon d’autant plus égale qu’elle est anonyme. L’exemple le plus célèbre est celui de Wikipedia, l’encyclopédie collaborative basée sur le volontariat et l’intelligence collective. Le principe est que les altruistes compétents et de bonne foi coopéreront et que la majorité recherchera l’amélioration objective de ce « work in progress » perpétuel. Mais l’amateur peut corriger en ligne le texte qu’un spécialiste émérite vient de déposer, le malin placer sa petite publicité, le pervers diffamer, le partisan répandre ses thèses et supprimer celles des adversaires, les groupes organisés infiltrer le très modeste système de vérification et sécurisation mis en place. Il y a donc lutte entre la stratégie de l’altruiste (contribuer pour augmenter la quantité globale d’information vraie et pertinente, la richesse immatérielle commune) et la stratégie du parasite (en profiter pour implanter des données favorable à ses intérêts ou lubies). Or, comme sur Internet toutes les interprétations sont également disponibles (la mauvaise monnaie pouvant chasser la bonne en se reproduisant de façon virale), il n’y a rien d’équivalent à la « critique par les pairs » censée régner dans les milieux universitaires. D’où le succès soudain de rumeurs ou de thèses délirantes du type « aucun avion ne s’est jamais écrasé sur le Pentagone, la preuve : regardez cette photo qui prouve le trucage. ». D’où un énorme problème de preuve.
« Tous médias » peut aussi impliquer :
- Tous stars un quart d’heure : des flux d’attention, mesurables en milliers de visites d’internautes peuvent se déverser sur une page inconnue ou presque, selon des règles très difficiles à identifier. C’est ainsi qu’un partisan du non au référendum sur la constitution européenne de 2006 peut devenir trouver des milliers de lecteurs en quelques jours et peser davantage sur l’opinion qu’un quotidien réputé.
- Tous doubles : chacun peut créer autant de pseudonymes et prendre autant d’identités qu’il veut, voire vivre une seconde existence dans Second Life où il pourra acheter des biens virtuels avec de l’argent réel, créer, par exemple, un bureau de son parti politique et y recevoir des visiteurs, etc.. L’autonomie des avatars prend ainsi une ampleur inégalée.
- Tous en tribu : le Web 2.0 c’est le royaume de l’échange, du miroir, de l’alliance temporaire, du rassemblement… Tout renvoie à tout par référence, lien, citation, discussion,… et des communautés s’agrègent instantanément pour se dissoudre parfois aussi vite. Ces tribus ou plutôt ces réseaux ont deux caractéristiques. Ils sont d’abord affinitaires : il faut avoir été attiré par un intérêt personnel quelconque, partager certaines croyances,valeurs ou au moins des thématiques pour y entrer. Ils sont ensuite informationnels, en ce sens qu’on n’y échange que des discours, des images et des signes, sans aucun contact « dans la vie réelle ». Cette double caractéristique leur confère à la fois une puissance de mobilisation et la faculté plus inquiétante de créer des « bulles » informationnelles, fermées à la critique extérieure, ressassant des affirmations répétées voire redondantes mais qui ne risquent guère d’être contredites.
On le voit, sur le Web 2.0, l’influence (mesurable à la capacité de faire réagir autrui dans un certain sens) a de moins en moins une source unique facile à identifier et obéit moins encore à un schéma linéaire. Il semblerait plutôt qu’Internet devienne un magma où soudain se dessinent des formes : il naît une structure d’attention sur certains points, structure qui, elle même, reflète une bizarre cartographie de la confiance. Des essaims d’internautes se portent sur un point, créant un effet d’agrégation tandis qu’en sens inverse des unités de sens (des énonciations, des thèmes…) se répandent, se transforment, chaque repreneur les réinterprétant à son tour pour les relancer. Pareil système paraît échapper à tout contrôle.
Or il semblerait que « tout » soit sur Internet comme tous les livres que l’on pourrait écrire avec les 25 lettres de l’alphabet figurent quelque part dans la bibliothèque de Babel. À certains égards, le vrai pouvoir devient celui de « faire le catalogue » et de créer des pôles d’attraction. Cela résulte notamment des systèmes d’indexation de l’information disponible (et notamment le fameux Google ranking qui ouvre la voie à des stratégies de manipulation des robots sémantiques, pour ne pas dire des stratégies du tricheur) mais aussi quelque chose de mystérieux qu’il faut bien appeler « l’art de diriger l’attention ».