Imprimer cette page

Publié le 01/02/2012 sur le blog du Monde d’InternetActu - Accès à l’article

 

  

Les 12 et 13 décembre 2011 se tenait à Lyon un colloque universitaire sur les réseaux sociaux organisé par l’Institut rhône-alpin des systèmes complexes. Suite et fin de notre retour sur ces deux jours, pour mieux comprendre le rôle et l’impact des réseaux sociaux...

 

Les algorithmes peuvent-ils se tromper ?

 

Tarleton Gillespie professeur associé à l’université Cornell devait conclure ces deux jours, mais il n’a pu être présent. Il semblait néanmoins intéressant de jeter un oeil sur son propos qu’il a notamment développé sur CultureDigitally : est-ce que les algorithmes peuvent se tromper ? L’implication publique des plateformes privées.

 

La réflexion de Tarleton Gillespie prend son origine dans les contestations émises à l’encontre de Twitter, accusé de censurer sa liste de Tendances. En fait, cette accusation, récurrente, montre que le fonctionnement de cette liste n’est pas conforme à ce que nous voudrions qu’il soit. Pourquoi Twitter semble-t-il favoriser des sujets people ou banal à des sujets de fonds comme le mouvement #occupywallstreet, l’actualité de #wikileaks, l’exécution de #troydavis ou même la mort de #stevejobs ? Pourquoi ses sujets ne sont-ils pas devenus tendances ? En fait, Twitter ne censure certainement rien. L’absence de ces sujets dans les listes de tendance est due à la dynamique particulière de l’algorithme de Twitter. La liste de tendance ne mesure pas la popularité d’un sujet, mais prend en compte bien sûr le nombre de tweets, mais également l’accélération de l’utilisation du terme, qu’il évalue par rapport à un niveau "moyen" de bavardage. En discute-t-on dans plusieurs réseaux de personnes ou seulement dans un pôle densément interconnecté d’utilisateurs ? Evoque-t-on des tweets différents ou des re-tweets massifs ? En fait, les tendances de Twitter ne cherchent pas les mots les plus tweetés, ni les sujets les plus populaires (certains le resteraient indéfiniment), mais tendent à regarder l’évolution de ceux-ci.

 

Bien sûr, la vigueur et la persistance de la charge de la censure n’est pas surprenante, estime Tarleton Gillespie. Les partisans de ces efforts politiques veulent désespérément que leur sujet gagne en visibilité. Reste que ces débats sur les outils ne font que commencer. "Comme de plus en plus de notre discours public en ligne a lieu sur un ensemble restreint de plates-formes de contenus privés, qui utilisent des algorithmes complexes pour gérer et organiser des collections massives de données, il existe une tension importante entre ce que nous nous attendons à voir émerger et ce que sont ces algorithmes en réalité. Non seulement nous devons reconnaître que ces algorithmes ne sont pas neutres, qu’ils codent des choix politiques, et qu’ils "armaturent" l’information d’une manière particulière, mais nous devons également comprendre ce que signifie de nous appuyer sur eux, pourquoi voulons-nous qu’ils soient neutres, fiables, qu’ils soient des moyens efficaces pour atteindre ce qui est le plus important."

 

Les tendances de Twitter ne sont qu’un de ces outils parmi les plus visibles. Le moteur de recherche de Google est un algorithme conçu pour prendre une série de critères en compte (dont 57 à caractère personnel, rappelait Eli Pariser) de manière à servir à la fois des résultats qui satisfassent l’utilisateur, mais aussi les objectifs du fournisseur : leur vision de la pertinence, mais aussi les exigences particulières de leur modèle d’affaires. Comme l’observait James Grimmelmann, les moteurs de recherche se targuent d’être automatisés, sauf quand ils ne le sont pas. Quand Amazon, YouTube ou Facebook vous proposent de regarder ce qui est "le plus populaire", "le plus vu", "le plus commenté", le "mieux noté", "ils traitent une liste dont la légitimité est fondée sur la présomption qu’elle n’a pas été organisée".

 

Il est essentiel de dépecer les algorithmes, estime Tarleton Gillespie. De comprendre comment ils sont pondérés. "Les algorithmes qui définissent ce qui est "tendance" ou ce qui est "chaud" ou ce qui est "plus populaire " ne sont pas des mesures simples, ils sont soigneusement conçus pour capter quelque chose que les fournisseurs du service cherchent à capturer et éliminer les inévitables "erreurs" qu’un simple calcul ferait.". En même temps, Twitter nettoie ses listes de tendances : celles-ci excluent par exemple les gros mots, les obscénités, les spams et introduit parfois des termes provenant de partenaires promotionnels...

 

L’algorithme est sans cesse manipulé. Au final, Twitter nous laisse dans un dilemme insoluble. Nous ne pouvons savoir pourquoi #occupywallstreet n’est pas une tendance : est-ce que cela signifie qu’il est volontairement censuré ? Qu’il est très populaire, mais pas encore un pic ? Qu’il est moins populaire qu’on pourrait le penser ?

 

"Les outils qui nous permettent d’entrapercevoir les énormes répertoires de données, comme les tendances de Twitter, sont faits pour nous montrer ce que nous savons être vrai et pour nous montrer que nous sommes incapables de percevoir comme vrai, du fait de notre portée limitée. On ne peut jamais vraiment savoir ce qu’ils nous montrent ou ce qu’ils ne parviennent pas à nous montrer. Nous demeurons piégés dans une régression algorithmique, où même Twitter ne peut nous aider, car il ne saurait risquer de révéler les critères qu’il utilise."

 

"En fait, le plus important ici, n’est pas la conséquence des algorithmes, mais notre foi dans leur puissance." Nous sommes invités à traiter les tendances comme une mesure raisonnable de la popularité et de l’importance... Nous voudrions qu’elles soient des arbitres impartiaux de ce qui et pertinent... Lorsque les faits sont déformés, nous voulons que ce soit quelqu’un qui l’ait fait délibérément plutôt que de mettre en cause la façon dont ils sont fabriqués, estime Tarleton Gillespie. "Nous n’avons pas un vocabulaire suffisant pour évaluer l’intervention algorithmique d’un outil comme les tendances. (...) Nous n’avons pas une idée claire de comment parler de la politique induite par cet algorithme."

 

Comment les algorithmes transforment-ils notre mode de gouvernement ?

 

Le philosophe Thomas Berns, chercheur au Centre Perelman de philosophie du droit et professeur à l’université libre de Bruxelles, a assurément tenu le discours le plus intéressant de ces deux jours en prenant le contre-point de bien des idées reçues. Que transforment le développement et la généralisation des pratiques statistiques et la multiplication des corrélations de données qu’elle permet ? 

 

 

ACCES A LA VIDEO ET A L’ARTICLE EN INTEGRALITE

Dernière modification le vendredi, 08 décembre 2017
Guillaud Hubert

Hubert Guillaud, rédacteur en chef d’InternetActu.net, le média de laFondation internet nouvelle génération.

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considérerons que vous acceptez l'utilisation des cookies.